美國於5月通過愛國者法案修正案

  美國參議院於今年(2020年)5月,通過了由共和黨領袖 Mitch McConnell 所提議主張,恢復《愛國者法案》(Patriot Act)中,原本應於今年3月失效的215條監控條款,該條款允許執法機構在沒有搜索令的情況下,取得人民的網路歷史瀏覽和搜尋紀錄。

  此修正案授予聯邦調查局(FBI)及中央情報局(CIA)等執法機構權力,只要其認為該紀錄與犯罪調查有關並且在檢察總長的監督下,即可無須經過法官批准,獲取人民的網路歷史瀏覽和搜尋紀錄。此法案雖限制執法機構不得取得人民瀏覽和搜尋網頁的「內容」,但卻可以取得該歷史紀錄,而歷史紀錄中詳細記載了人民所瀏覽的網站及所輸入的關鍵字。

  倡導隱私保護而反對此一法案的團體,認為政府在此法案的支持下,能夠藉由打擊恐怖主義、避免社會動亂、保護國家安全以及保護兒童等理由,對人民進行監視、侵害其隱私。反對者認為網路瀏覽和搜尋紀錄是美國人最敏感、最個人和最私密的部分,人們會把所想到的每一個想法都透過網路去搜尋,並且瀏覽相關網站,因此,獲取人民的網路瀏覽和搜尋紀錄即等同於了解其內心想法。此法案的反對者包含了兩黨的部分參議員、自由派公民團體「美國公民自由聯盟(American Civil Liberties Union)」以及保守派公民團體「繁榮美國(Americans for Prosperity)」,其認為並無任何證據能夠證明政府依《愛國者法案》所進行的大規模監管,得以拯救任何人的生命。

  民主國家中,如何在犯罪追訴以及民主自由之間找到平衡,會是一個值得深究的問題。

相關連結
相關附件
你可能會想參加
※ 美國於5月通過愛國者法案修正案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8554&no=55&tp=1 (最後瀏覽日:2026/03/13)
引註此篇文章
你可能還會想看
世界經濟論壇發布《贏得數位信任:可信賴的技術決策》

  世界經濟論壇(World Economic Forum, WEF)於2022年11月15日發布《贏得數位信任:可信賴的技術決策》(Earning Digital Trust: Decision-Making for Trustworthy Technologies),期望透過建立數位信任框架(digital trust framework)以解決技術開發及使用之間對數位信任之挑戰。   由於人工智慧及物聯網之發展,無論個人資料使用安全性還是演算法預測,都可能削弱人民對科技發展之信賴。本報告提出數位信任路線圖(Digital trust roadmap),說明建立數位信任框架所需的步驟,以鼓勵組織超越合規性,指導領導者尋求符合個人與社會期望之全面措施行動,以實現數位信任。路線圖共分為四步驟:   1.承諾及領導(commit and lead):數位信任需要最高領導階層之承諾才能成功,故需將數位信任與組織戰略或核心價值結合,並從關鍵業務領域中(例如產品開發、行銷、風險管理及隱私與網路安全)即納入數位信任概念。   2.規劃及設計(plan and design):透過數位信任差距評估(digital trust gap assessment)以瞭解組織目前之狀態或差距,評估報告應包括目前狀態說明;期望達成目標建議;治理、風險管理與合規性(governance, risk management and compliance, GRC)調查結果;將帶來之益處及可減輕之風險;計畫時程表;團隊人員及可用工具;對組織之影響等。   3.建立及整合(build and integrate):實現數位信任需關注人員、流程及技術等三大面向。首先需確保人員能力、達成該能力所需之資源,以及人員溝通與管理;第二,定義組織數位信任流程,包括制定計劃所需時程、預算及優先實施領域,調整目前現有管理流程,並識別現有資料資產;最後,針對技術使用,可考慮使用AI監控、雲端管理系統以及區塊鏈等,以監測資料之使用正確性及近用權限管理。   4.監控及滾動調整(monitor and sustain):建立數位信任框架後,需持續建構相關績效及風險評估程序,以確保框架之穩定,並根據不斷變化的數位信任期望持續改善,以及定期向董事會報告。

日本國土交通省航空局公布日本無人機飛行安全指引

  日本國土交通省航空局於2017年9月12日公布修正版日本無人機飛行安全指引(「無人航空機(ドローン、ラジコン機等)の安全な飛行のためのガイドライン」を改定しました),乃依據修正之航空法規定(平成27年法律第67號)制訂無人機飛行之相關基本規則。   定義所謂無人機乃指非人搭乘,透過遠距遙控或自動駕駛而飛行之飛機、旋翼飛機、滑翔機及飛艇。而無人機禁止飛行在150公尺以上高空,不得在航空站周邊空域(包含進入),以禁止在人口集中地區之上空(150公尺以下)。   除經國土交通省同意之例外規則外,無人機之飛行必須在日出後日沒前,且需在直接肉眼目視範圍內之監視下,與第三人或他人建築物、車輛等物體應距離30公尺以上,並不得在祭拜或假日等人群聚集之場所上空飛行,也不得輸送爆裂物等危險物品,亦不得從無人機上投擲物品。另外應注意事項,例如飛行場所除了航空站周邊外,直升機等降落可能之場所、迫降場所、高速公路或高速鐵路等、鐵路周邊或車道周邊等、高壓電線、變電所、電波塔及無線電設施等附近應注意飛行安全。   於飛行之際,不得飲酒等造成不當操作,飛行前應注意天氣狀況、飛機無損害或故障、電池燃料充足等,並確保周邊無障礙物,並應迴避與飛機或無人飛機之衝突。平時應保持無人機之狀況良好,且維持日常操作良好技能,並鼓勵投保人身或財產保險。

法國CNIL重罰微軟因搜尋引擎Bing違法運用cookie

  法國國家資訊自由委員會(Commission Nationale de l'Informatique et des Libertés, CNIL)基於cookie聲明(cookie banner)違反法國資料保護法(Act N°78-17 of 6 January 1978 on Information Technology, Data Files and Individual Liberties)裁罰微軟愛爾蘭分公司(Microsoft Ireland Operations LTD,下稱微軟)搜尋引擎Bing,並根據cookie蒐集資料間接產生的廣告收入、資料主題數量及處理的資料範圍定出6千萬歐元之罰鍰額度,且要求微軟應於3個月內限期改正,如逾期按日處以6萬歐元罰鍰。本案是繼2022年1月6日以來,CNIL以相同理由分別對Google與Facebook裁罰1.5億及6千萬歐元罰鍰後,再增1件科技巨頭因違法運用cookie遭受裁罰之案例。本案對我國隱私執法機關參酌於數位環境中,應就cookie聲明如何進行管理之理由與細節,具有參考價值。   而本案微軟之搜尋引擎Bing遭受裁罰之理由,主要可分為二面向:   一、未經使用者事前同意,逕於使用者設備中設置cookie   依法國資料保護法第82條規定,業者利用cookie或其他追蹤方式針對使用者終端設備上的資料進行讀取或寫入資料前,應盡告知義務並取得使用者同意。惟搜尋引擎Bing在使用者造訪網站時,未經使用者同意便設置一種具有安全及廣告等多種用途的cookie(MUID cookie)於其電腦設備,且當使用者繼續瀏覽網站時,將會另設置其他廣告cookie,然微軟亦未就此取得使用者同意。   二、拒絕設置cookie與給予同意之方式便利性應相同   在有效同意的標準與具體判斷上,由於搜尋引擎Bing的cookie聲明第一階層僅提供「接受」與「設定」兩類按鈕,並未提供「拒絕」按鈕,因此使用者同意或拒絕設置cookie之流程便利性有其差異,並未一致,如下說明:   (一)使用者同意設置cookie   如使用者同意設置cookie,僅需於cookie聲明的第一階層點擊「接受」按鈕,即完成設置。   (二)使用者拒絕設置cookie   若使用者欲拒絕設置cookie,需於cookie聲明的第一階層點擊「設定」按鈕;其後進入第二階層,使用者可於各類型cookie選擇開啟或關閉,再點擊「保存設定」按鈕,始完成設置。   是以使用者拒絕同意設置cookie與給予同意之方式,兩者的便利性並未一致。又因第二階層顯示默認未設置cookie,恐導致使用者誤以為網站並未設置cookie,故CNIL認為此種同意欠缺自願性而屬無效者。

英國資訊委員辦公室提出人工智慧(AI)稽核框架

  人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。   AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。   「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。   ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。

TOP