2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。
該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。
G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施:
1. 組織如何進行AI風險識別與評估;
2. 組織如何進行AI風險管理與資訊安全;
3. 組織如何進行先進AI系統的透明度報告;
4. 組織如何將AI風險管理納入治理框架;
5. 組織如何進行內容驗證與來源追溯機制;
6. 組織如何投資、研究AI安全與如何降低AI社會風險;
7. 組織如何促進AI對人類與全球的利益。
為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。
目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。
2016年1月, 隸屬英國商業、創新和技術部 (Department for Business, Innovation and Skills,BIS)的科學辦公室(Government Office for Science)發布「分佈式分類帳技術:區塊鏈以外(Distributed Ledger Technology:beyond block chain)」研究報告。本篇報告由產官學界合作完成,主要在評估分佈式分類帳技術可以運用在哪一些公私領域,並決定政府以及私人應該採取哪些行動以促進分佈式分類帳技術可被有益運用,並避免可能帶來的傷害。 該份研究報告認為,分佈式分類帳技術可在多個領域協助政府機構,包含徵稅、提供福利、發行護照、土地登記、確保商品供應鏈並且確保政府記錄與服務的完整性。相較於其他網路系統,分佈式分類帳技術較不易受駭客攻擊,而且由於每個参與者都有一份帳簿副本,如果有惡意竄改的狀況,也可以輕易被發現,但這不表示分佈式分類帳技術就不會被駭客攻擊。 數位五國(Digital 5,D5)之一的愛沙尼亞,已多年實驗運用分佈式分類帳技術於公領域服務多年。愛沙尼亞政府透過私人公司運用分佈式分類帳技術建制「免金鑰簽名設施(Keyless Signature Infrastructure,KSI)」,KSI允許愛沙尼亞公民驗證其在政府資料庫資訊的完整性,並避免內部人透過政府網路從事非法活動。KSI確保公民資訊安全以及準確,因而可協助愛沙尼亞政府提供數位化的公司登記以及稅務服務,減少政府以及社會大眾的行政作業負擔。 除此之外,分佈式分類帳技術也有助於確保商品以及智慧財產權的所有以及出處。例如Everledger此一系統可用於確保鑽石的身分,從礦產、切割到銷售,可減少並避免欺詐以及「血鑽石」進入市場。 簡而言之,分佈式分類帳技術提供政府可減少詐欺、腐敗、錯誤以及紙上作業成本的框架,並透過資訊分享、公開透明以及信任,具有可重新定義政府與公民關係的潛力。對於私領域而言也具有同樣可能性,報告特別提出可透過分佈式分類帳技術發展「智慧契約」,可增加信任度並提高效率。據此,本報告針對政府部門提出八大建議: (1) 應成立專責部門,並與產業、學界緊密合作,並應考慮成立臨時性的專家諮詢團隊。 (2) 英國的研究社群應該要投入研究確保分佈式分類帳技術具備可即性、安全性以及內容準確性。 (3) 政府應支持為地方政府成立分佈式分類帳技術實地教學者,匯聚所有測試技術以及其運用的所需元素。 (4) 政府需要思考如何為分佈式分類帳技術建立妥適的法制框架。法規需要配合新科技應用技術的發展而進步。 (5) 政府應該與產學合作確保相關標準可以符合分佈式分類帳技術及其內容完整性、安全性以及隱私的需求。 (6) 政府應與產學合作確保最有效率以及最可用的身分認證網路協議可為個人及組織所使用,這項工作應與國際標準的發展與執行緊密連結。 (7) 政府應對分佈式分類帳技術進行試驗,以評估該項技術在公領域的可行性。 (8) 建議成立跨部門的利益群體,結合分析以及政策群體,以生成並發展潛在使用案例,並且在公民服務中提供具備知識的專家人員。 除了八大建議,管理與法制上,本報告指出分佈式分類帳技術具有兩種管理規範:法律規範以及技術規範。法律規範是「外部」規範,法律規範可能會被違反,緊接著面臨違法處罰的問題。技術規範是「內部」規範,假如違反技術規範,「錯誤(error)」產生無法運作,因此「規範」本身就可以確保會被遵循。換句話說,技術規範可以節省法律規範的執法成本。另外一方面,分佈式分類帳技術為去中心化技術,如果要以法制管理,也只能在参與者身上施加法律義務,例如Bitcoin,只能對於提供Bitcoin交易服務的平台施加法律義務。美國紐約州金融服務部所發行的比特幣交易執照BitLicnese即為一例。因此,基於去中心化的特性,報告建議政府單位應該要儘量参與技術標準的制定,並且配合技術標準制定相關法律,法律規範與技術規範兩者應該要交互影響。
美國提出壟斷威攝法案美國參議院在2019年7月23日,於第116屆國會中審查了兩次「壟斷威攝法案」(The Monopolization Deterrence Act),相當於台灣法案經過二讀。提出者是參議院司法委員會反托拉斯、競爭政策和消費者權益小組之成員,克洛布查爾,他認為聯邦執法人員發現非法壟斷行為之時,需要採取果斷行動以確保制止這種行為,但僅僅是禁制令不足以阻止這種非法行為的發生,尚需更好的立法。 本法將賦予司法部和聯邦貿易委員會權利,對壟斷犯罪尋求懲罰性罰款,其目的係為司法部和聯邦貿易委員會提供額外的執法工具,針對個別違規行為制訂補救措施,平衡其嚴重的犯行,並希冀能有效制止未來之非法行為。原法律規定個人違反最高可罰一百萬美元,企業最高可以罰一千萬美元,國會調查後認為原法律規定之罰款不足以阻止壟斷行為,因為獲利可能比罰款更多。 有關「壟斷威攝法案」之修正內容大略包含: 每個違反本條規定的人,必須負擔民事罰款,該罰款不大於個人上一年度在美國的總收入中的15%。從事非法行為之期間,所有交易、貿易行為收入的30%。 委員會針對以不正當方法競爭違反謝曼爾法案第二條的個人、合夥企業或公司,可以在美國地方法院提起民事訴訟,並對此種行為處以民事罰款。 任何個人、合夥企業或公司被發現違反了謝曼爾法案第二條,其民事罰款不大於個人、合夥企業、公司上一年度在美國的總收入的15%。從事非法行為之期間,與非法行為有關之商業活動中之個人、合夥企業或公司在美國之總收入的30%。 在聯合民事處罰準則中,有規範總檢察長和聯邦貿易委員會在計算民事罰款時,必須考慮之相關因素,有以下七項,其一,受影響的商業量;其二,違法行為的持續時間和嚴重性;其三,為隱瞞違法行為而採取或試圖採取之任何行動;其四,違法行為嚴重或明顯違法之程度;期五,是否將民事處罰與針對違法行為之其他救濟相結合,包括結構性救濟、行為條件、非法所得之歸還;其六,先前是否曾從事過相同或類似之反競爭行為;其七,是否違反先前之法令或法院命令該為之行為。
歐盟執委會發布指引以因應《人工智慧法》「禁止的人工智慧行為」條文實施歐盟執委會於2025年2月4日發布「關於禁止的人工智慧行為指引」(Commission Guidelines on Prohibited Artificial Intelligence Practices)(下稱「指引」)」,以因應歐盟《人工智慧法》(AI Act,下稱AIA)第5條關於「禁止的人工智慧行為」之規定。該規定自2月2日起正式實施,惟其內容僅臚列禁止行為而未深入闡釋其內涵,執委會特別制定本指引以避免產生歧義及混淆。 第5條明文禁止使用人工智慧系統進行有害行為,包括:利用潛意識技術或利用特定個人或群體之弱點進行有害操縱或欺騙行為、實施社會評分機制、進行個人犯罪風險預測、執行無特定目標之臉部影像蒐集、進行情緒識別分析、實施生物特徵分類、以及為執法目的而部署即時遠端生物特徵識別系統等。是以,指引就各禁止事項分別闡述其立法理由、禁止行為之具體內涵、構成要件、以及得以豁免適用之特定情形,並示例說明,具體詮釋條文規定。 此外,根據AIA規定,前述禁令僅適用於已在歐盟境內「投放市場」、「投入使用」或「使用」之人工智慧系統,惟對於「使用」一詞,並未予以明確定義。指引中特別闡明「使用」之定義,將其廣義解釋為涵蓋「系統投放市場或投入使用後,在其生命週期任何時刻的使用或部署。」 指引中亦指出,高風險AI系統的特定使用情境亦可能符合第5條的禁止要件,因而構成禁止行為,反之亦然。因此,AIA第5條宜與第6條關於高風險AI系統的規定交互參照應用。 AIA自通過後,如何進行條文內容解釋以及法律遵循義務成為各界持續討論之議題,本指引可提升AIA規範之明確性,有助於該法之落實。