美國對於智慧聯網 IoT 環境隱私保障展開立法工作

  有鑒於智慧聯網IoT環境下,許多智慧型手持裝置及行動通訊裝置,大量蒐集消費者資訊之隱私權暨資訊安全考量,美國國會於2013年5月10日提出「應用軟體隱私暨資訊安全保護法草案」(Application Privacy, Protection, and Security Act of 2013, APPS Act of 2013, H.R. 1913)進行審議。「應用軟體隱私暨資訊安全保護法草案」草案針對應用軟體(Application)在蒐集消費者資訊前,如何落實「同意」機制,乃強制行動通訊裝置應用軟體開發商(developer)應:(1)提供使用者個人資料蒐集、使用、儲存及公開之通知(notice),而該通知含括所蒐集個人資料之種類、使用目的、有償公開第三者之類別及資料儲存等;(2)取得使用者之同意(consent);消費者依據該草案亦有權撤銷其「同意」(withdrawal of consent)。此外,草案乃強制要求該行動通訊裝置應用軟體開發商,就非法近取之個人資料及經去識別化應用軟體蒐集之個人資料,應採取合理及適當之防衛措施(security measures on personal data and de-identified data)。

 

  並且,針對網路環境下隱私權保護議題,更早之前,美國國會於2013年2月28日提出「線上禁止追蹤法草案」(Do-Not-Track Online Act of 2013) 進行審議。「線上禁止追蹤法草案」草案乃要求聯邦貿易委員會(FTC),就透過個人線上活動追蹤,以蒐集、使用個人資料之行為態樣,進行管制。該管制模式謹據以要求如下:(1)被搜集資料個人應收到簡單、明確、並載明資料使用目的之通知(clear, conspicuous and accurate notice and use of such information),而個人就該通知應予明白之同意(affirmative consent);(2)FTC未來在訂定標準規範時,應(shall)考量所被搜集之資料,是否在匿(隱)名基礎上處理之,遂該資料無法有效被聯結(指認)到特定個人或裝置上;此外,消費者當享有資料不被蒐集的權利(expressed preference by individual not to have personal information collected)。該草案並就違反之個人,設定最高15,000,000美元損害賠償規定。

相關連結
※ 美國對於智慧聯網 IoT 環境隱私保障展開立法工作, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6311&no=55&tp=1 (最後瀏覽日:2026/04/15)
引註此篇文章
你可能還會想看
大陸專利申請數量超越美日 成世界第一

  根據世界智慧財產組織(World Intellectual Property Organization, WIPO)2012年12月發布的報告,中國大陸的專利申請數量於2011年首度超越美國,成為全球最大的專利申請國。這個頭銜在過去的一百年間,只有德國、日本和美國擁有過。   中國國家知識產權局是目前全球最大的專利(商標)局,其所受理的專利、實用新型專利、設計專利以及商標申請數量繼2010年超越日本後,於2011年更進一步達到52.6萬件,超越美國的50.4萬件成為全球第一。事實上,中國大陸商標的申請數量自2001年起就已是全球首位,而設計專利更早在1999年就達到此紀錄。WIPO的理事長Francis Gurry表示,雖然僅比較各國專利申請數量的多寡並不代表一切,然而這個數據仍某種程度的顯示了創新板塊移轉的趨勢。   WIPO報告指出,2009年至2011年,全世界的專利申請數量增加了29.4萬件,其中中國知識產權局占全球成長的比重達72%;且2011年全球的專利申請總數達到214萬件,首度突破二百萬大關,相較於2010年成長了7.8%,是連續第二年成長率高於7%。這些數據顯示出儘管近年經濟低迷,全世界在智慧財產權的申請數量上仍呈現高度穩定的成長。   該報告亦指出,2011年中國大陸根據「專利合作條約」(Patent Cooperation Treaty, PCT)所提出的國際專利申請總數排名第四,僅次於美國、日本以及德國,計有1萬6000餘件,較2010年成長33.4%,是全球增長最快的國家。其中,中國的中興通訊(ZTE Corporation)以2826件專利申請,超過日本松下榮登全球公司專利申請量榜首;華為(Huawei Technologies Co., LTD)則以1831件排名第三。

加拿大政府提交予國會《人工智慧資料法案》

  加拿大政府由創新、科學和工業部長(Minister of Innovation, Science and Industry)代表,於2022年6月16日提交C-27號草案,內容包括聯邦的私部門隱私權制度更新,以及新訂的《人工智慧資料法案》(Artificial Intelligence and Data Act, 下稱AIDA)。如獲通過,AIDA將是加拿大第一部規範人工智慧系統使用的法規,其內容環繞「在加拿大制定符合國家及國際標準的人工智慧設計、開發與應用要求」及「禁止某些可能對個人或其利益造成嚴重損害的人工智慧操作行為」兩大目的。雖然AIDA的一般性規則相當簡單易懂,但唯有在正式發布這部包含絕大多數應用狀況的法規後,才能實際了解其所造成的影響。   AIDA為人工智慧監管所設立的框架包含以下六項: (1)方法 以類似於歐盟《人工智慧法案》採用的方式,建立適用於人工智慧系統具「高影響力」的應用方式的規範,關注具有較高損害與偏見風險的領域。 (2)適用範圍 AIDA將適用於在國際與省際貿易及商業行動中,設計、發展或提供人工智慧系統使用管道的私部門組織。「人工智慧系統」的定義則涵蓋任何「透過基因演算法、神經網路、機器學習或其他技術,自動或半自動處理與人類活動相關的資料,以產生結果、做出決策、建議或預測」的技術性系統。 (3)一般性義務 I 評估及緩和風險的措施 負責人工智慧系統的人員應評估它是否是一個「高影響系統」(將在後續法規中詳細定義),並制定措施以辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果。 II 監控 對該「高影響系統」負責的人員應建立準則,以監控風險緩解措施的遵守情況。 III 透明度 提供使用管道或管理「高影響系統」運作的人員應在公開網站上,以清晰的英語揭露   i 系統如何或打算如何使用。   ii 系統所生成果的類型及它所做出的決策、建議與預測。   iii 為辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果,而制定的緩解措施。   iv 法規明定應揭露的其他訊息。 IV 記錄保存 執行受規範活動的人員應遵守紀錄保存要求。 V 通知 若使用該系統將導致或可能導致重大傷害,「高影響系統」的負責人應通知部門首長。 VI 匿名資料的使用 從事法案所規定的活動及在活動過程中使用或提供匿名資料的人員,必須依據規範制定關於(a)資料被匿名化處理的方式(b)被匿名化資料的使用與管理,兩方面的措施。 (4)部長命令 部門首長可以透過命令要求(a)製作紀錄(b)從事審計或聘請一位獨立的審計師執行(c)成立一個專責執行審計程序的組織(d)成立一個在有理由相信「高影響系統」之使用可能造成急迫重大傷害風險時負責進行終止或准許的組織。 (5)行政管理 AIDA為部門首長制定一項,可指定其所管轄部門中一名高級官員為「人工智慧與資料專員」的權利,其職責在協助部門首長管理與執行AIDA。 (6)罰則 違反AIDA規範之罰則主要為按公司、個人之收入衡量的罰款。特定嚴重狀況如以非法方式取得人工智慧訓練用資料、明知或故意欺騙大眾造成嚴重或心理傷害或財產上重大損失,亦可能判處刑事監禁。

美國發起「投資報酬計畫」(Return on Investment Initiative, ROI)全面檢視科研成果商業化法制

  川普總統在2018年4月發布「總統管理議程」(President’s Management Agenda)將國家科研成果商業化之發展視為「聯邦跨機關優先目標」(Cross-Agency Priority Goal, CAP Goal)。為維持美國全球科技創新領先地位,美國政府每年投資約1500億美元於各聯邦所屬大學與研究機構進行科技研究。美國國家標準與技術中心(NIST)與白宮科技政策辦公室(OSTP)聯合發起「投資報酬計畫」(Return on Investment Initiative, ROI),宗旨為釋放美國創新(Unleashing American Innovation),讓政府投資預算發揮科研補助之最大效益。   計畫目的包括:1.評估現行政府從事技術移轉指導原則,檢視應予以維持與待改革之處;2.吸引後期研發、商業化與先進製程的技轉投資,並降低法規阻礙;3.支持科研創新產官學合作模式與技轉機制;4.有效移除技轉阻礙以利加速技轉成效,並聚焦於國家重要產業發展的新興措施;5.評估聯邦政府資金運用指標成效;6.創造激勵學研機構提升技轉成效之誘因。   NIST調查指出,阻礙技轉發展之原因包括:1.技轉與智慧財產權協商所涉高額交易與時間成本;2.不同政府單位對法規之解釋、適用與實踐意見相歧;3.智慧財產權保護不足、技術授權使用限制與政府行使介入權(march-in rights)限制;4.公務員參與科技新創與衍生企業(spin-off)限制與利益衝突規範。此ROI計畫已於2018年7月30日完成各方意見徵詢,總計共104份。預計於2019年年初,做出完整分析報告與法制建議。

歐盟執委會通過關於《人工智慧責任指令》之立法提案

  歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。   《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。   歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。

TOP