美國修法通過,未來必要時可強制旅客接受AIT掃描

  近來美國運輸安全管理局(Transportation Security Administration, TSA)修訂隱私衝擊評估(Privacy Impact Assessment, PIA) 規章,規定機場安全檢查於必要時,可以針對某些特殊旅客強制進行AIT掃描。

  美國運輸安全管理局根據航空運輸安全法(Aviation and Transportation Security Act, ATSA) 負責運輸之安全、評估威脅及強制執行安全相關的規定和要求,並且確保機場等交通設備是否有充足的安全措施。

  由於國際恐怖攻擊行動頻傳,美國運輸安全管理局於2013年開始採行AIT掃描技術以強化旅客通關之安全檢查,並將會顯示出近乎裸照的3D透視影像全身掃描機器(body scanning machines)淘汰。

  所謂的AIT(Advanced Imaging Technology)掃描技術,即係高階圖像技術,可偵測旅客是否有攜帶危險性、威脅性物品,它所顯示出來的影像僅係一個大致輪廓,如有違禁品則會在該部位產生色塊,警告安檢人員應採行進一步檢查措施。

  一般而言,雖然旅客可拒絕AIT掃描,選擇讓海關人員進行身體檢查,但是為確保運輸安全,近來運輸安全管理局更新隱私衝擊評估(Privacy Impact Assessment, PIA) 規章,規定於必要時可以針對某些特殊旅客強制進行AIT掃描,旅客不再有拒絕之權利。

  此一政策施行,勢必遭受侵害「隱私權」之質疑,運輸安全局表示,AIT掃描係採用「自動目標辨識」 (Automatic Target Recognition , ATR) 軟體,亦即非直接顯示個人影像,僅顯示特殊物體在一般影像上的所在位置,發出警訊後再由安檢人員進行詳細檢查。現今AIT掃描技術已提升,掃描出的人體圖像會被模糊處理,且掃描後機器不會儲存任何可識別個人之資訊,更加確保旅客的隱私權不受侵害。

相關連結
※ 美國修法通過,未來必要時可強制旅客接受AIT掃描, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7165&no=57&tp=1 (最後瀏覽日:2026/04/18)
引註此篇文章
你可能還會想看
美國FCC將檢視是否有必要加強隱私規定

  美國FCC於二月份表示其將檢視採取額外的安全措施,是否能夠有效防止電信公司所持有之個人敏感性資訊外洩之問題,並就與此所涉之問題與建議採取之法律措施諮詢公眾之意見。此次諮詢的議題包括目前電信公司所採取的安全措施為何、此等措施存有何種缺失、以及採取何種措施將能夠更有效地保護消費者的隱私,並就以下五種特定的安全措施,諮詢公眾之意見,包括: (1) 由消費者設定密碼。 (2) 建立一套查驗機制,此一機制必須能夠記錄消費者個人資料之接近使用情況,包括時間、接近使用的資料內容、接近使用人…等之資訊。 (3) 電信公司必須就客戶專有之網路資訊 (customer proprietary network information,CPNI)進行加密。 (4) 限制資料之保存,要求電信公司必須刪除所有不必要的資料。 (5) 當個人資料遭他非法接近使用時,電信公司應通知消費者。   除此之外,FCC亦就其是否應修改現行法規,要求電信公司應就其實施消費者保護措施之狀況,提交年度稽核報告以及全年之客訴資料進行公眾意見諮詢,並且就電信公司是否應於提供CPNI前,致電予消費者,以確保CPNI資料之索取係由消費者本人親為一事諮詢公眾之意見。

法國CNIL發布針對應用程式的隱私保護建議

在民眾越來越依賴行動裝置的應用程式進行日常活動的年代,諸如通訊、導航、購物、娛樂、健康監測等,往往要求訪問更廣泛的資料和權限,使得應用程式相較於網頁,在資料安全與隱私風險上影響較高。對此,法國國家資訊自由委員會(Commission Nationale de l'Informatique et des Libertés, CNIL)於2024年9月發布針對應用程式隱私保護建議的最終版本,目的為協助專業人士設計符合隱私友好(privacy-friendly)的應用程式。該建議的對象包含行動裝置應用程式發行者(Mobile application publishers)、應用程式開發者(Mobile application developers)、SDK供應商(Software development kit, SDK)、作業系統供應商(Operating system providers)和應用程式商店供應商(Application store providers),亦即所有行動裝置生態系中的利害關係者。以下列出建議中的幾項重要內容: 1. 劃分利害關係者於手機生態系中的角色與責任 該建議明確地將利害關係者間作出責任劃分,並提供如何管理利害關係者間合作的實用建議。 2. 改善資料使用許可權的資訊提供 該建議指出,應確保使用者瞭解應用程式所請求的許可權是運行所必需的,並且對資料使用許可的資訊,應以清晰及易於獲取的方式於適當的時機提供。 3. 確保使用者並非受強迫同意 該建議指出,使用者得拒絕並撤回同意,且拒絕或撤回同意應像給予同意一樣簡單。並再度強調應用程式僅能在取得使用者知情同意後,才能處理非必要資料,例如作為廣告目的利用。 此建議公布後,CNIL將持續透過線上研討會提供業者支援,協助其理解和落實這些建議。同時,CNIL表示預計於2025年春季起,將對市面上應用程式實行特別調查,透過行政執法確保業者遵守相關隱私規範,尤其未來在處理後續任何投訴或展開調查時,會將此建議納入考慮,且會在必要時採取糾正措施,以有效保護應用程式使用者的隱私。 .Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} .Psrc{text-align: center;}

美國國家標準與技術研究院公布物聯網設備核心網路安全基礎指南草案

  美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2019年8月1 日公布「安全物聯網設備之核心網路安全特徵基準(Core Cybersecurity Feature Baseline for Securable IoT Devices)」指南草案,提出供製造商參考之物聯網設備網路安全基本要素,該指南草案中提出幾項重要核心要素如下: 設備辨識:物聯網設備必須有可供辨識之相關途徑,例如產品序號或是當連接網路時有具獨特性之網路位址。 設備配置:獲得授權之使用者應可改變設備的軟體以及韌體(firmware)之配置,例如許多物聯網設備具有可改變其功能或是管理安全特性之途徑。 資料保護:物聯網設備如何保障其所儲存以及傳送之資料不被未經授權者使用,應清楚可被知悉,例如有些設備利用加密來隱蔽其儲存之資料。 合理近用之介面:設備應限制近用途徑,例如物聯網設備以及其支持之軟體應蒐集並認證嘗試近用其設備的使用者資訊,例如透過使用者名稱與密碼等。 軟體與韌體更新:設備之軟體應可透過安全且可被調整之機制進行更新,例如有些物聯網設備可自動的自其製造商取得更新資訊,並且幾乎不需要使用者特別之動作。 網路安全事件紀錄:物聯網設備應可記錄網路安全事件並且應使這些紀錄讓所有人或製造商可取得,這些紀錄可幫助使用者與開發者辨識設備之弱點以近一步修復。

世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書

  世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。   包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。   在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。   綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。

TOP