本文為「經濟部產業技術司科技專案成果」
歐洲議會於2009年3月26日,以大多數支持Lambrinidis報告中關於網路上個人自由保護之投票結果,反對法國政府和著作權行業提出的修正案。歐洲議會的態度是「保障所有公民接近使用網路就如同保障所有公民接受教育」,而且「政府或私人組織不能以處罰之方式拒給這種接近使用的權利」。歐洲議會議員要求會員國政府需體認到網路是一個有效增加公民權利義務之特殊機會,就這方面而言,使用網路及網路內容是一個關鍵要素。 這份報告被歐洲議會議員所採用,得以認識到提供安全措施來保護網路使用者(特別是孩童)之必要性,由於使用者可能會因使用網路,而暴露在成為罪犯或恐怖份子的犯罪工具的風險中。報告中提出方案對抗網路犯罪,但同時也要求在安全及網路使用者基本權利保障中尋求平衡點。 此報告否定法國所提之修正案,歐洲議會又再度否決由法國努力推動「網路侵權三振法案」(three strikes file-sharing law)。歐洲議會認為對於所有網路使用者的監測活動及對於侵權者之處罰有違比例原則。歐洲議會亦公開支持「網路權利憲章」(Internet Bill of Rights)以及推動「隱私權設計」(privacy by design)宗旨。
歐盟通過反脅迫規則,將針對他國的經濟脅迫手段採取反制措施歐盟理事會(European Council)表示已與歐盟執委會(European Commission,以下簡稱「執委會」)、議會(European Parliament)於2023年11月22日完成《保護歐盟及其成員國免受第三國經濟脅迫規則》(Regulation on the protection of the Union and its Member States from economic coercion by third countries,以下簡稱「反脅迫規則」)之立法流程,並將於2023年12月27日正式施行生效。 該法起源於中國大陸於2021年為抗議立陶宛(Lithuania)同意我國政府以「臺灣」名義在其首都維爾紐斯(Vilnius)設立代表處,停止輸入多項產品,導致立陶宛對中貿易額大幅降低。歐盟為避免特定國家持續利用此種經濟脅迫手段影響歐盟交易市場與會員國之主權,決定立法採行反制措施,並於2021年之貿易政策回顧(2021 Trade Policy Review)公布《反脅迫規則》之立法框架。 根據《反脅迫規則》,執委會得根據會員國、歐盟議會及其他經濟聯盟所提供之資訊進行職權(ex officio)調查;亦可依照受脅迫之會員國或企業的請求進行調查。在調查階段,執委會會在4個月內判斷特定國家之行為是否確實造成經濟脅迫,若確實存在,將進一步評估其對歐盟帶來之影響。調查完成後,若他國政府確實對歐盟成員國或企業實施經濟脅迫手段,執委會將提交報告與理事會進行決議,通過後,執委會將先採行不干涉措施(non-interventionist measures),與實施經濟脅迫手段之國家進行協商,並要求賠償因經濟脅迫而產生的損害。若採行不干涉措施後仍無改善,執委會得考慮採行干涉措施(interventionist measures),包含但不限於限制特定企業進入歐盟市場與投標政府採購案;終止對特定國家的關稅優惠,並課予額外之關稅等,以阻止該特定國家繼續干擾歐盟經濟體。
IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。