2024年德國預計制訂或修正多部法規,以達成2023年8月公布的德國資料戰略《透過資料利用取得進展》(Fortschritt durch Datennutzung)文件中所設定的目標。該戰略由內政部、經濟與氣候行動部、數位與交通部聯合訂定,規劃德國資料政策與法規的工作進程,以期打破資料封閉的現狀、拓展資料應用的範圍。
德國資料戰略目標與重點摘要如下:
1.更多的資料:
(1)公部門資料:藉由統整跨部門的資料增加資料的可近用性,並透過新訂法規提升資料近用機會,包括《交通資料法》(Mobilitätsdatengesetz)確保交通資料的品質和使用規則、《聯邦透明度法》(Bundestransparenzgesetz)作為取得政府資料的法源依據、《研究資料法》(Forschungsdatengesetz)簡化科研資料的取得,以及為增加健康資料二次利用起草的《健康資料利用法》。
(2)私部門資料:德國政府將訂定並提供資料共享之契約範本,以降低資料的交易、操作成本,並評估增修公平競爭相關法規來協助企業間的資料合作。另將新訂《員工資料保護法》(Beschäftigtendatenschutzgesetz),重整散於歐洲人權法院及德國國內與員工資料相關之規範。
2.更好的資料:德國將積極參與國際資料標準訂定與遵循,確保資料的品質、互操作性,以及標準化的資料描述。相關工作包括草擬關於業者使用cookie等數位追蹤技術如何取得使用者同意的管理規範,並將依歐盟準則評估是否訂定不法重新識別之刑責;另外預計建立文化、農業等主題資料室用以協助政府決策。
3. 資料利用和資料文化:為使資料可持續地利用與發展,政府機關方面將設置資料專責人員,並在以政府資料訓練大型語言模型技術時由新設的資料諮詢中心協助。公民數位能力方面,將於STEM 2.0教育計畫中規劃培育資料概念,促進未來社會發展出更多樣的資料應用機會。
德國資料戰略涉及政府、企業、研究單位和公民各層面,顯示資料的重要性逐漸成為德國重大的課題,亦是我國在建立資料治理時如何確保資料品質、交換義務與使用規則的參考方向。
人工智慧目前正快速發展,不論是在醫療、農業耕作、製造生產或是氣候變遷等領域上,均帶來了許多改變,然而在人工智慧應用之同時,其也存在許多潛在風險如決策不透明、歧視或其他倫理與人權議題。 歐盟為求在全球競爭激烈的背景下,維護其於人工智慧相關領域的領先地位,並確保人工智慧技術於改善歐洲人民生活的同時,亦能尊重(respecting)人民權利,乃於今年(2020年)2月發布「人工智慧白皮書」(White Paper on Artificial Intelligence),將採投資及監管併用之方式,促進人工智慧應用與解決其相關風險,其對於未來促進人工智慧的應用(promoting the uptake of AI)與相關風險解決,計畫朝向建立卓越生態系統(An Ecosystem of Excellence)及信任生態系統(An Ecosystem of Trust)兩方面進行。 在建立信任生態系統中,歐盟提到因為人工智慧具有變革性的潛力,所以就信任的建立乃至關重要,未來歐洲人工智慧的監管框架除了須確保遵守歐盟法規外(包括基本權利保護與消費者權益維護之規範),對於高風險性之人工智慧應用,其將強制要求需於銷售前進行合格評定(mandatory pre-marketing conformity assessment requirement)。而有關高風險性之定義,歐盟於該白皮書指出須符合以下兩個要件: 考量人工智慧應用之一般活動特徵,其預計會有重大風險的發生,例如在醫療保健、運輸、能源和可能屬於高風險的公共領域;以及 在預期用途或應用上都可能對個人(individual)或企業(company)帶來重大的風險,特別是在安全性(safety)、消費者權益(consumer rights)與基本權利(fundamental rights)上。 歐盟委員會目前針對於以上白皮書之內容與附隨報告,將向公眾徵詢意見至今年5月19日。
日本醫藥品醫療器材等法修正研析─以醫療應用軟體為中心 歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。
Google稱著作權訴訟危害公眾傳播自由高達十億美元的著作權訴訟案件大大挑戰YouTube,YouTube之母公司Google的律師向美國曼哈頓地方法院(U.S. District Court in Manhattan)提交文件對Viacom最新提出的訴訟作出以下回應: 『對受著作權保護的資訊無法出現在該網站上的指控,將威脅兩億用戶在網路上交換資訊的權益』。 自從Viacom於2007年提出訴訟以來,這兩家公司之間的交鋒戰況日益激烈。Viacom聲稱,由於用戶能夠不經允許地看到該公司的傳播內容,YouTube反而一貫縱容未經授權的流行電視劇和電影在其網站上放置,並被瀏覽數萬次,並稱Google對此視而不見,已使該公司遭受嚴重損失。 Google在上周五提交給法官的文件中宣稱,『YouTube在幫助著作內容擁有者保護其著作權方面做的已遠遠超過法律應承擔的義務』。同時,Google表示:『為了尋求上傳者和網路服務業者的合法性,Viacom反而威脅了兩億網路用戶合法交換資訊、新聞、娛樂、政治和藝術表達的方式與自由』。 Google稱所屬的YouTube乃忠實執行1998年『千禧年著作權法』(1998 Digital Millennium Copyright Act) 的要求,認為聯邦法會保護YouTube等對著作權擁有者的要求做出適當回應。但Viacom卻認為YouTube開啟了一個不良示範。