歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。
《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。
歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。
英國數位文化傳媒和體育部(Department for Digital, Culture, Media & Sport, DCMS)於2022年11月23日發布新聞稿,宣布英國與韓國共同簽署的資料橋接規則(The Data Bridge Regulation)於同年12月19日正式生效。在此之前,英國於2022年7月5日已與韓國個人資料保護委員會(Personal Information Protection Commission, PIPC)簽署資料適足性協議(Data Adequacy Agreement),以促進兩國未來進行資料傳輸。這也是英國在脫歐後,首次與其他國家簽訂的資料協議,而依據過往兩國的數位貿易統計資料,本次協議預估將帶來超過14.8億英鎊的商機。 英國DCMS部長更進一步表示,未來將積極與其他國家的戰略夥伴,開展資料經濟商機。英國於聲明中強調參與全球跨境隱私規則論壇(Global CBPR Forum)的決心,以加速資料共享、促進創新與產學研究,聲明摘要如下: 1、本協議為加強英國與韓國資料共享的里程碑,其宗旨為創建更值得信賴的資料共享環境,以及共創更安全的資料傳輸方式。 2、本協議耗時約一年完成討論與擬訂,並期待能透過該協議,深化並擴展英國與韓國之間的資料夥伴關係。 3、英國與韓國政府承諾將促進資料在國際商業、創新及研究等領域的發展。在加強個人資料保護的前提下,促進資料的合理利用。 4、在資料自由傳輸的基礎上,本協議將提供更完善且可持續推動的全球資料生態系統。雙方政府承諾共同改進數位時代下個資料保護框架,如英國發布國家資料戰略(National Data Strategy)、修訂UK GDPR相關規範,以及韓國PIPC提出個人資料保護法部分條文修正案等具體措施。 英國政府肯認應與其他戰略合作夥伴開展多邊倡議,如參與全球跨境隱私規則論壇(Global CBPR Forum)及經濟合作暨發展組織(OECD),共同推動可信賴之政府存取資料(Trusted Government Access to Data)的目標。
何謂芬蘭科學院(AOF)?芬蘭科學院(Academy of Finland, AOF)是隸屬於芬蘭教育、科學及文化部的專業研究資助機構,旨在促進芬蘭科學研究的多樣化及國際化,資助前端突破性科學研究,提供科學技術及科學政策的專業知識,並加強科學研究的地位。芬蘭科學院最高決策單位為七人委員會,委員會主席由科學院院長出任。 底下設有:文化與社會、自然科學與工程、健康醫學以及環境與自然資源四個研究委員會。每一委員會設主席一人委員十人,任期三年。行政單位由大約一百位專家組成,主要工作為準備及執行七人委員會及各研究委員會的各項工作與決策,並撰寫科學報告和研究計畫。 其任務包括獎助大學與研究機構內的科學研究工作與團隊、參與多邊研究計畫的規劃與獎助、資助芬蘭研究人員參與國際研究計畫、評估科研計畫的品質及水準,以及科技政策專業諮詢等。研究範圍涵蓋建築、太空研究、細胞生物和心理學到電子和環境科學研究。
音樂出版業者控告LimeWire侵害著作權國家音樂出版組織(National Music Publishers’ Association,簡稱NMPA)中8家音樂出版業者在2010年6月16日對LimeWire提起著作權侵權訴訟。8家出版業者包含EMI Music Publishing, Sony/ATV Music Publishing, Universal Music Publishing Group(環球), Warner/Chappell Music, Inc.(華納), Bug Music, MPL Music Publishing, Peermusic and The Richmond Organization.等唱片公司,被告LimeWire是知名的檔案共享線上服務網站。原告指出被告大量的侵害原告的音樂著作,因此要求賠償。 NMPA表示本案和上個月13家音樂公司和美國唱片業協會(Recording Industry Association of American,簡稱RIAA)對LimeWire的著作權訴訟是相關聯的案件。美國地方法院法官於上個月就RIAA和LimeWire一案作出判決,法官認定LimeWire公司及負責人侵害著作權,且構成不公平競爭。13家公司要求凍結LimeWire的資產並且要負擔近十億美金賠償,RIAA要求LimeWire立即關掉網站,但法官於6/8說明LimeWire至少可持續營業兩週。 NMPA的負責人及執行長Israelite表示,LimeWire提供的網路平台有助於網路著作權侵害的產生。每首音樂產出的背後都有一群龐大的網路,包含出版者、作曲家、表演者、錄音者,唱片公司,並非無中生有的,LimeWire檔案分享網站利用提供販賣音樂平台,使他人可以接觸音樂,但拒絕支付合理的音樂授權金。 LimeWire釋出善意歡迎NMPA進行協商談判,並表示將有許多與出版業者、作曲家、表演者、唱片公司的會談,就如同LimeWire新的音樂服務機制與商
自動駕駛車輛之分級與責任所謂自動駕駛(autopilot),原來是指一個用來控制載具軌道而無需人工一直干預的系統,亦即無須人類持續干預,但人類仍須於關鍵時刻介入進行決定或作為,此時機器僅作為輔助。 而自動駕駛汽車或稱全自動駕駛,則只完全無須人類干預,由機器自動感應偵測,自動做成決策控制車輛行駛。故由人類的介入程度區別究竟是駕駛輔助或自動駕駛。美國國家公路交通安全管理局(NHTSA)於2016年已提出正式的分類系統,除手動駕駛(0級)外,區分弱駕駛輔助(1級)、部分自動駕駛(2級)、有條件全自動(3級)、高度/完全自動化(4級)不同程度的自動駕駛。其他國家如德國,在聯邦政府的「自動駕駛圓桌會議」也對自動駕駛有類似的四等級區分。 德國聯邦政府也在於2017年1月25日提出規範自動駕駛之法律草案,亦即道路交通法修正法(Änderung des Straßenverkehrsgesetzes),核心在於賦予電腦與人類駕駛者法律上同等地位。亦即,駕駛人的定義未來擴張延伸到「使用不同程度自動駕駛系統者」。根據草案將來在車輛行駛中,人類可以在特定時間與特定狀況下接管整個行駛。而最重要的修正:人類始終應該負使用電腦的最終責任。 故在行駛中駕駛人將會被輔助機器替代,更要求自駕系統應該具備“隨時可以由駕駛人接手操控或停俥”的功能。 分類中,駕駛人的角色只有到全自動駕駛實現時才退場,屆時才會發生無駕駛人只有乘客的狀況。 修法也重視自駕技術失敗並導致事故所生責任分擔的問題。對於責任的調查將採用如同飛航安全中之「黑盒子」的方式,該裝置會記錄行駛中的所有基本資料。這將有助於發生事故後澄清,查明究竟是技術上原因、製造商或駕駛員的過失,以確保駕駛人無法將責任全部推給自動化系統的故障。