英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議:
(一)關於人工智慧及應用界定與發展
人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。
(二)未來對社會及政府利益及衝擊
人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。
目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。
在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。
(三)關於相關道德及法律風險管理課題
人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考:
(1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。
(2)調適由人工智慧作決策行為時的歸責概念和機制。
有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。
針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。
人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。
本文為「經濟部產業技術司科技專案成果」
2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。
澳洲發佈《直接行動計畫》以因應氣候變遷 日本資訊信託功能認定指引第二版日本於2018年6月公布「資料信託功能認定指引第一版」(情報信託機能の認定に係る指針ver1.0),期待藉此推動資料銀行發展,促進資料流通和利用。第一版指引係以資料銀行應具備之功能為中心,惟伴隨資料銀行業務發展,指引內除資料銀行基本功能外,亦應規範個人資料管理及向第三方提供資料之條件等內容,加上有論者認為第一版內有關資料銀行定義過於偏重功能描述,故總務省和經濟產業省於2019年1月起召開檢討會,重新檢討上開指引,最終於2019年10月8日公布「資料信託功能認定指引第二版」(情報信託機能の認定に係る指針ver2.0)。 第二版指引更新重點包括︰(1)修正資料銀行定義︰第一版指引僅強調資料銀行之功能,第二版則增加資料銀行之目的和資料銀行與個人間關係等內容;(2)重新定義並詳細說明資料種類和蒐集方法;(3)修正資料信託功能認定基準︰新增複數業者共同經營資料銀行,隱私保護對策以及確保資料銀行透明性和個人資料之自主控制等規定;(4)新增資料信託功能模範條款之應記載事項︰包括與限制行為能力人締結契約之程序,以及向第三方提供資料之條件等規定。為確保資料銀行透明性和個人資料之自主控制,第二版指引新增資料倫理審查會規定,要求資料銀行設置資料倫理審查會並定期向其報告,審查會則應就個人與資料銀行間契約、個資利用目的、向第三方提供資料之條件等事項提供建議。
2023年日本著作權法修訂之相關規範2023年5月17日,日本國會通過了《著作權法》部分條文修正案,並於同月26日公布(2023年第33號法)。 隨著數位化的進步,內容的創作、傳播和使用變得更加容易,不再只是過去主流的出版社、電視台等「專業人士」才能從事,而是一般普羅大眾也可以參與創作,並將內容貼在網路上。與此同時,既有著作之重新利用的需求等情形均日益增加,然而此類內容的問題在於難與著作權人取得聯絡,不一定可順利使用。 為了解決上述問題,本次修正重點之一係新增第67之3條,根據該條規定,儘管著作之利用人採取了確認著作權人授權意願等措施,但仍無法確認著作權人授權意願時,得向文部科學省所屬之文化廳申請裁定,經文化廳長裁定允許利用並繳納補償金後,利用人得於該裁定所定之期間內(申請書所載之期限最長不得超過3年)先行使用該著作。新裁定利用制度放寬了確認著作權人意願之程序與要求,降低使用門檻,並同時規定著作權人可聲請撤銷使用,如果文化廳長裁定撤銷使用,則利用人應停止繼續使用該著作,著作權人得依利用人實際使用期間之比例領取補償金。另為簡化及加快程序,關於新裁定利用制度之申請受理、要件確認與補償金額的決定等部分事務,文化廳長得指定特定之民間機構作為聯絡窗口負責相關行政手續之處理(第104條之33以下相關規定)。 新裁定利用制度的建立,將有助於促進著作之流通利用,即認為已充分週知著作權人,且盡可能地確認著作權人等是否可以使用的意思,仍不能確認意思狀態之著作,而採取一定措施放寬使用是妥適的。因考慮到週知等需要時間,乃決定從公布日(2023年5月26日)起3年內施行。 本文同步刊登於TIPS網(https://www.tips.org.tw)