法國國家資訊自由委員會(Commission Nationale de l'Informatique et des Libertés, CNIL)基於cookie聲明(cookie banner)違反法國資料保護法(Act N°78-17 of 6 January 1978 on Information Technology, Data Files and Individual Liberties)裁罰微軟愛爾蘭分公司(Microsoft Ireland Operations LTD,下稱微軟)搜尋引擎Bing,並根據cookie蒐集資料間接產生的廣告收入、資料主題數量及處理的資料範圍定出6千萬歐元之罰鍰額度,且要求微軟應於3個月內限期改正,如逾期按日處以6萬歐元罰鍰。本案是繼2022年1月6日以來,CNIL以相同理由分別對Google與Facebook裁罰1.5億及6千萬歐元罰鍰後,再增1件科技巨頭因違法運用cookie遭受裁罰之案例。本案對我國隱私執法機關參酌於數位環境中,應就cookie聲明如何進行管理之理由與細節,具有參考價值。
而本案微軟之搜尋引擎Bing遭受裁罰之理由,主要可分為二面向:
一、未經使用者事前同意,逕於使用者設備中設置cookie
依法國資料保護法第82條規定,業者利用cookie或其他追蹤方式針對使用者終端設備上的資料進行讀取或寫入資料前,應盡告知義務並取得使用者同意。惟搜尋引擎Bing在使用者造訪網站時,未經使用者同意便設置一種具有安全及廣告等多種用途的cookie(MUID cookie)於其電腦設備,且當使用者繼續瀏覽網站時,將會另設置其他廣告cookie,然微軟亦未就此取得使用者同意。
二、拒絕設置cookie與給予同意之方式便利性應相同
在有效同意的標準與具體判斷上,由於搜尋引擎Bing的cookie聲明第一階層僅提供「接受」與「設定」兩類按鈕,並未提供「拒絕」按鈕,因此使用者同意或拒絕設置cookie之流程便利性有其差異,並未一致,如下說明:
(一)使用者同意設置cookie
如使用者同意設置cookie,僅需於cookie聲明的第一階層點擊「接受」按鈕,即完成設置。
(二)使用者拒絕設置cookie
若使用者欲拒絕設置cookie,需於cookie聲明的第一階層點擊「設定」按鈕;其後進入第二階層,使用者可於各類型cookie選擇開啟或關閉,再點擊「保存設定」按鈕,始完成設置。
是以使用者拒絕同意設置cookie與給予同意之方式,兩者的便利性並未一致。又因第二階層顯示默認未設置cookie,恐導致使用者誤以為網站並未設置cookie,故CNIL認為此種同意欠缺自願性而屬無效者。
美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。 依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。 依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。 此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。 最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。
美國政府管考辦公室提出醫療產業資訊化政策評價報告美國之政府管考辦公室( Government Accountability Office )針對聯邦政府推動醫療產業導入資訊應用之相關措施及作為,九月初向參議院政府再造委員會( Committee on Government Reform, House of Representatives )下轄之聯邦人事暨組織次委員會( the Subcommittee on Federal Workforce and Agency Organization )提出報告,綜合回顧 2004 以來之各項政策宣示及執行規劃,指出目前猶有未足之處以及今後適宜更加留意之方向。 簡言之,醫療產業導入資訊應用,可望帶來降低營運成本,提升經營效率,防免發生過誤,維護病患安全等諸多實益,已為各界所共認。另由於聯邦政府介入醫療產業之程度與影響層面既深且廣,不僅本諸規制角度主管產業,更推動諸多施政,投入大量資金,提供老人、傷殘、兒童、低收入戶、原住民、退伍軍人、退休公職人員等不同社會族群各式相關服務,從而責成聯邦政府領銜推動醫療產業導入資訊應用,藉此提升醫療之品質及效率,應屬妥適。 自 2004 年提出行動綱領以降,聯邦政府即已陸續接櫫各項目標及其實施策略,並區分病歷資料格式、傳輸互通標準、網路基礎架構、隱私安全議題、公衛服務整合等面向分別開展,獲致相當成效。惟據管考辦公室之分析,既有之政策措施及各項作為,似乏詳盡之細部規劃及具體之實踐要項可資遵循,亦無妥善之績效評比指標以利參考。由是觀之,迄今之努力及其成果固值稱許,然就 2014 年普遍採用電子病歷並且得以交流互通之願景而言,還有很多需要努力的地方。
歐盟執委會發起ERA vs CORONA行動計畫,加速研發創新合作對抗COVID-19歐盟執委會於2020年4月7日發起ERA vs CORONA行動計畫,透過歐洲研究區(European Research Area, ERA)全力支持歐洲科研合作、共享科學資訊,並給予歐洲研究團隊與企業充足的研發疫苗資金,用以對抗COVID-19。歐盟執委會已與各國達成共識,確認ERA vs CORONA行動計畫的10項優先行動: 協調各國研究與創新(Research and innovation, R&I)資金投入,專注研發新型冠狀病毒的疫苗與治療方法,加強創新合作模式以對抗疫情。 支持新型冠狀病毒患者的臨床管理,與歐盟大規模臨床實驗計畫。 將資金投入創新領域回應社會需求,關注疫情對社會經濟、醫療及資通訊技術應用、衛生系統及製造業的影響。 藉由Horizon 2020 增加對新創公司的研發財務支持;拓展歐洲創新委員會ePitching計畫(EIC ePitching),鼓勵公私夥伴共同尋求解決方案。 創造資金來源促進R&I行動,引導新創及中小企業申請國家及地方資金、私人基金會、投資歐洲計畫(Invest EU)等。 建立ERA Corona平台,提供研發資金相關的一站式服務,包括歐盟各國補助新型冠狀病毒R&I計畫的完整資訊。 設立新型冠狀病毒特設高階R&I工作小組,規劃歐盟中長期防疫措施。 加強研究基礎設施布建及跨國資料庫利用。 創建歐洲COVID-19研究資料共享平台 ,連接歐洲開放科學雲,允許快速共享研究資料及成果以加速研發、公平分享資訊。 舉辦泛歐黑客松(EU vs Virus)推動歐洲創新與社會交流。
歐盟執委會通過關於《人工智慧責任指令》之立法提案歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。 《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。 歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。