美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下:
(1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。
(2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。
(3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。
(4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。
(5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。
(6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。
(7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。
(8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。
(9)人工智慧所產生之責任,應由設計者以及建造者負擔。
(10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。
(11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。
(12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。
(13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。
(14)人工智慧之技術應盡力滿足越多人之利益。
(15)人工智慧之經濟利益,應為整體人類所合理共享。
(16)人類對於人工智慧之內在目標應享有最終設定權限。
(17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。
(18)人工智慧所產生之自動化武器之軍備競賽應被禁止。
(19)政策上對於人工智慧外來之發展程度,不應預設立場。
(20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。
(21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。
(22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。
(23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。
本文為「經濟部產業技術司科技專案成果」
英國技術移轉政府辦公室(Government Office for Technology Transfer, GOTT)於2022年4月成立,主要解決公部門研發成果,即「知識資產」(knowledge assets, KA),因面臨運用不足及管理等困境,並積極推動公部門衍生新創政策,促進KA產業化。 GOTT會依研發法人的需求及經驗程度,提供個別支援性服務,如協助較無KA運用經驗之法人設置KA運用工作規則及管理方式等直接技術性指導,亦提供較有KA運用經驗之法人額外投資資金及其他資源挹注。 GOTT於2024年7月5日發布過去一年(2023年4月1日至2024年3月31日)之施政報告,主要重點簡述如下: (1)對「玫瑰書」(the Rose Book),即政府KA管理指引,提出細部操作指引,如:「PSB內KA管理負責人角色任命指引」、「協助PSB制定KA管理策略指引」、「智慧財產權及其機密性指引」、「附件A–知識資產類別與類型」、「附件B–KA評估工具」、「附件C–商業化路線」、「附件D–獲取KA指引」、「附件E–人才流動指引」以及「申請KA補助基金指引」等。 (2)推出首個政府對公部門創新研發之市場驗證加速器計劃,稱為「公共研究創新和市場加速器」(the Public Research Innovation and Market Accelerator, PRIMA),協助公部門創新者測試其研發構想、產品及服務是否有市場發展潛力。 (3)發布「公部門衍生新創公司研究」(Public Sector Spinouts Study),為英國政府首次對公部門推動衍生新創政策及制度進行審查,顯示英國推動上遇有許多推動障礙,研究最後對英國政府及GOTT提供多項施政建議。
歐洲創新委員會發布2024年工作計畫,將對策略性科技公司及新創公司提供超過12億歐元的資金歐洲創新委員會(European Innovation Council, EIC)於2023年12月12日發布2024年工作計畫,其中三項計畫將對策略性科技公司及新創公司提供超過12億歐元的資金: (1)「探路器計畫」(EIC Pathfinder):本計畫經費共2.56億歐元,將補助「有潛力帶領技術突破」的多元學科(multi-disciplinary)研究團隊;每案補助金額不超過400萬歐元。 (2)「轉型器計畫」(EIC Transition):本計畫經費共0.94億歐元;「轉型器計畫」係協助「探路器計畫」、「歐洲研究院概念驗證計畫」(European Research Council Proof of Concept projects)、「展望歐洲計畫」(Horizon Europe)之研發成果銜接創新應用;此計畫每案補助金額不超過250萬歐元。 (3)「加速器計畫」(EIC Accelerator):本計畫經費共6.75億歐元,補助對象為「有能力創造新市場及促進顛覆性技術創新研發」的新創企業及中小企業。此計畫每案補助金額為250萬歐元以下,但若由EIC基金進行投資者,每案補助金額為50萬歐元至1500萬歐元。 除上述補助外,EIC對於研發計畫管理亦扮演積極主動的角色,可協助受補助者連結歐盟境內外資源,形塑良好的創新生態系。
日本2017年5月30日修正施行之個人資料保護法,對於家長會蒐集、處理、利用個人資料之影響依日本2017年5月30日修正施行之個人資料保護法的最新規定,家長會、同學會、管委會等,就個人資料的蒐集、處理、利用,應與以蒐集、處理、利用個人資料為業之公司行號,在法律上承擔相當之責任、義務。 因此自2017年5月30日起,家長會蒐集、處理、利用個人資料,需要注意以下四點: 一、經當事人請求,應刪除其個人資料。 修正後的個人資料保護法施行後,明知未經或不確定是否經學生監護人同意,而取得其個人資料,都是違法的行為。但目前已經取得的個人資料,即使明知未經或不確定是否經學生監護人同意,也不需要立即刪除。惟若當事人請求刪除,則必須立即刪除。 二、學校應善盡告知之義務,取得學生監護人之同意後,方得將其個人資料轉交家長會蒐集、利用、處理,。 修正後的個人資料保護法允許由學校取得學生監護人之同意後,將其個人資料轉交家長會蒐集、利用、處理。但如果校方未充分盡到告知義務,則有違法之虞。實務上在九州的熊本曾經發生過這樣的案例,由於家長會未依法蒐集、處理、利用其個人資料,監護人提起告訴,最後雙方在二審達成和解。 三、經過監護人同意,方得將其個人資料造冊並刊登照片 由於須明確取得學生監護人之同意,方得將其個人資料造冊並刊登照片。因此為避免學校未善盡告知義務,建議家長會直接請監護人填妥加入家長會之同意書,並於同意書上載明授權蒐集、處理、利用其個人資料之範圍。 四、遵從個人情報保護委員會的指導 若家長會有非法蒐集、利用、處理個人資料之虞,個人情報保護委員會可以檢查並限期改正。屆期如未改正,可裁處罰金或懲役。
OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。