2018年5月18日,於第196次參議院會議中通過「著作權法」修正案,並於5月25日公布,預計於2019年1月1日施行。本次修正是為因應數位網路技術的發展,對需要著作權人同意的行為範圍進行檢視。其中第47條之7修正、及新增之第30條之4與第47條之5與人工智慧發展有重大相關。
日本著作權法於2009年的修正中,增加第47條之7規定,原本可能構成著作權侵害之資料分析、機器學習行為(未經原作者同意複製、改作),只要在必要限度內,不分是否有營利,皆無須權利人同意。然而本條在使用上因為未涵蓋成果物的讓與行為,也就是如果公開販售學習完成的資料集或是人工智慧模型,甚至於同一平台共享資料集都可以構成侵害。有鑑於此,才在本次修法中修正相關條文。
本次修正中,增加第30條之4規範於必要限度內可利用他人著作物的行為,其中在同條第二款中認可第47條之5第1項第2款之行為,也就是「利用電子計算機的情報解析及提供其結果」,亦可被認為不違反著作權法,因而補上原本第47條之7的漏洞。
惟須注意的是,所謂的必要限度還是有嚴格的比例限制,不能無限制使用。由於目前本次修正還尚未生效,未來對人工智慧發展的應用會產生什麼樣的實際影響,值得繼續觀察。
近來虛擬貨幣已成為國際洗錢犯罪工具,為有效防制洗錢及打擊資助恐怖主義行為,芬蘭財政部(Ministry of Finance)宣布通過虛擬貨幣供應商法(The Act on virtual currency providers),於2019年5月1日生效,立法目的係為了將虛擬貨幣供應商納入洗錢防制監管範圍,並由芬蘭金融監管局(Financial Supervisory Authority, FIN-FSA)擔任虛擬貨幣供應商之註冊機構及監管機構。 根據該法案,虛擬貨幣交易所、託管錢包供應商及虛擬貨幣發行者皆須向芬蘭金融監管局進行註冊,以確保遵守相關法規要求,包括:(1)供應商應具可靠性;(2)保存和保護客戶資金;(3)須將客戶資金與自有資金隔離;(4)服務行銷規則;(5)遵守防制洗錢與打擊資助恐怖主義(AML / CFT)規定。虛擬貨幣供應商須符合法規要求才能在芬蘭營運,若未符合法規,將被禁止其業務活動,並依規定科以罰金。 另外,該法案之基本框架,是以2018年5月歐盟宣布通過之「第五號洗錢防制指令」(the Fifth Anti-Money Laundering Directive)為基礎,該指令要求所有歐盟成員國必須於2020年1月10日前,將虛擬貨幣相關服務納入國內AML / CFT監管框架中,以降低洗錢和恐怖主義融資風險。然而,芬蘭金融監管局表示,虛擬貨幣交易風險高,儘管制訂新法案,投資者保護問題仍無法完全解決,呼籲投資者仍須注意虛擬貨幣相關服務所涉及之風險,應謹慎為之。
美國FCC將檢視是否有必要加強隱私規定美國FCC於二月份表示其將檢視採取額外的安全措施,是否能夠有效防止電信公司所持有之個人敏感性資訊外洩之問題,並就與此所涉之問題與建議採取之法律措施諮詢公眾之意見。此次諮詢的議題包括目前電信公司所採取的安全措施為何、此等措施存有何種缺失、以及採取何種措施將能夠更有效地保護消費者的隱私,並就以下五種特定的安全措施,諮詢公眾之意見,包括: (1) 由消費者設定密碼。 (2) 建立一套查驗機制,此一機制必須能夠記錄消費者個人資料之接近使用情況,包括時間、接近使用的資料內容、接近使用人…等之資訊。 (3) 電信公司必須就客戶專有之網路資訊 (customer proprietary network information,CPNI)進行加密。 (4) 限制資料之保存,要求電信公司必須刪除所有不必要的資料。 (5) 當個人資料遭他非法接近使用時,電信公司應通知消費者。 除此之外,FCC亦就其是否應修改現行法規,要求電信公司應就其實施消費者保護措施之狀況,提交年度稽核報告以及全年之客訴資料進行公眾意見諮詢,並且就電信公司是否應於提供CPNI前,致電予消費者,以確保CPNI資料之索取係由消費者本人親為一事諮詢公眾之意見。
梵諦岡與IBM、微軟聯合呼籲對臉部辨識等侵入性技術進行監管2020年2月28日梵諦岡教宗與兩大科技巨頭IBM及微軟聯合簽署「羅馬呼籲AI倫理道德」文件,支持制定人工智慧(AI)發展倫理與道德規範,並特別呼籲應針對臉部辨識等侵入性技術進行監管。在聯合文件上特別提及臉部識別技術潛在之濫用風險,例如警察會使用臉部辨識系統調查犯罪行為、《財富》500強公司使用AI審查求職者,這兩個例子均具有潛在且高度之風險,使用不正確或是具有偏見之AI判斷均可能會造成傷害。誠如方濟各在致辭中說:「人工智慧記錄個人資料,並使用於商業或政治目的,而且通常是在個人不知情之情況下,這種不對稱,將使少數人了解我們的一切,但我們卻對他們一無所知,這將使批判性思維和對自由的自覺變得遲鈍,不平等現象急遽擴大,知識和財富在少數人手中累積,將對民主社會構成重大風險。」 此次會議希望在國家與國際層面上共同努力促進AI道德規範,並根據以下原則來發展和使用人工智慧。第一,良好的創新:人工智慧系統必須是可理解得,並且在包容性方面必須考慮到所有人的需求,以便每個人都能受益。第二,責任:設計和實施人工智慧者必須承擔責任和保持透明度。第三,公正性:避免根據偏見進行創造或採取行動,從而維護人類平等和尊嚴。第四,可靠性:人工智慧系統必須能夠可靠的運行。第五,安全和隱私:人工智慧系統必須安全運行並尊重用戶的隱私。 目前尚不清楚其他技術公司是否會簽署該文件,以及簽署人將如何實施,但教宗與兩大科技巨頭史無前例的合作,為人工智慧未來發展方向提供遠見卓識,能更加深入的去思考AI的道德意涵以及它將如何與人類更好的合作、互動,互利共生,相輔相成。
聯合國教科文組織發布《人工智慧倫理建議書》草案聯合國教科文組織於2020年9月發布《人工智慧倫理建議書》草案(First Draft Of The Recommendation On The Ethics Of Artificial Intelligence)(下稱建議書),以全球性的視野與觀點出發,為第一份全球性關於人工智慧倫理的建議書,試圖對人工智慧倫理作出框架性規定,對照其他區域性組織或個別國家人工智慧倫理準則或原則,著重之處稍有差異。該建議書係由組織總幹事Audrey Azoulay於2020年3月任命24位在人工智慧倫理學方面之跨領域專家,組成專家小組(AD HOC EXPERT GROUP, AHEG),以《建議書》的形式起草全球標準文書。 其主要內容提到六大價值觀:(一)人性尊嚴(Human dignity)、(二)基本人權和自由(Human rights and fundamental freedoms)、(三)不遺漏任何人(Leaving no one behind)、(四)和諧共生(Living in harmony)、(五)可信賴(Trustworthiness)、(六)環境保護(Protection of the Environment)。其中尤值關注處在於,建議書除強調人工智慧的技術、資料及研究需要進行全球範圍的共享外,相當重視世界上所有的國家及地區在人工智慧領域是否能均衡發展。特別在六大價值觀中提出「不遺漏任何人」觀點,也同時呼應了聯合國永續發展目標(Sustainable Development Goals, SDGs)的倡議。在人工智慧技術發展過程中,開發中國家(global south)及相對弱勢的群體是相當容易被忽略的。人工智慧蓬勃發展的時代,若某些群體或個體成為技術弱勢者,不僅在技術發展上有落差,更可能使人工智慧系統容易產生歧視、偏見、資訊和知識鴻溝,其後更將導致全球不平等問題的挑戰。 由專家小組起草的建議書草案已於2020年9月提交給聯合國成員國,作為對建議書的初步報告。該報告將提供給各會員國,並同步提交給預定於2021年召開的政府專家委員會,最後預計於2021年底的提交聯合國教科文組織大會。