2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。
人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下:
1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。
2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。
3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。
4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如:
(1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute);
(2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure);
(3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊;
(4)培養第三方評測機構的專家人才。
5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。
6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。
7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。
8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。
NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。
2014年7月歐盟法院宣告2006年起施行的「資料保留指令」無效,該指令允許警察機關使用私人通聯記錄,但不允許揭示通訊內容。資料保留指令之所以被歐盟法院廢止,起因於不合乎比例原則及沒有充分的保護措施,該指令規定歐盟成員國必須強制規定電信公司必須保留客戶最近六個月到十二個月的通聯紀錄,不過在歐盟法院廢止指令之前,德國憲法法院在2010年時就已經以違反憲法為由停止執行指令。 惟在2015年1月,伊斯蘭激進主義份子的恐怖攻擊事件,共12人被射殺。因此德國總理梅克爾2015年1月在下議院針對該恐怖事件發表演說,雖因美國的史諾登事件,揭露美國政府大量監聽私人通訊和監視網路流量的行動,而引起了德國人對隱私權保護的關注,但梅克爾表示德國各層級的部會首長都同意有使用私人通聯記錄的需要、使嫌疑犯的通聯記錄能夠被警方用來偵查犯罪,但應該由法律規範資料保留的期間限制,她敦促各界向歐盟委員會施加壓力,重新訂定資料保留指令,使各歐盟成員國能修正國內法律。 歐盟委員會正在評估此法制議題,並考慮向歐盟議會、各成員國、民間團體、執法部門和個資保護組織間建立開放式對話,決定是否有需要訂定新指令;但德國司法部長並不贊成梅克爾擴大監督人民通訊的想法,認為這是過於倉促的行動,而且除了資訊記錄留存外,德國政府也儲存所有媒體資料並限制媒體自由,他認為這並不合適。 目前英國國內保守黨和自由黨現正為新修訂的通訊資料法,為人民隱私權的保護範圍爭論不休,而美國由於近年受到不少駭客攻擊,故美國總統歐巴馬採取與梅克爾相似的立場,希望能擴張執法機關的權力,公開提倡強化美國網路安全相關法規。
英國政府提交予國會「人工智慧監管規範政策報告」英國政府由數位文化媒體與體育大臣(Secretary of State for Digital, Culture, Media and Sport)與商業能源與工業策略大臣(Secretary of State for Business, Energy and Industrial Strategy)代表,於2022年7月18日提交予國會一份「人工智慧監管規範政策報告」(AI Regulation Policy Paper)。內容除定義「人工智慧」(Artificial Intelligence)外,並說明未來政府建立監管框架的方針與內涵。 在定義方面,英國政府認為人工智慧依據具體領域、部門之技術跟案例有不同特徵。但在監管層面上,人工智慧產物則主要包含以下兩大「關鍵特徵」,造成現有法規可能不完全適用情形: (1)具有「適應性」,擅於以人類難以辨識的意圖或邏輯學習並歸納反饋,因此應對其學習方式與內容進行剖析,避免安全與隱私問題。 (2)具有「自主性」,擅於自動化複雜的認知任務,在動態的狀況下持續判斷並決策,因此應對其決策的原理原則進行剖析,避免風險控制與責任分配問題。 在新監管框架的方針方面,英國政府期望所提出的監管框架依循下列方針: (1)針對技術應用的具體情況設計,允許監管機構根據其特定領域或部門制定和發展更詳細的人工智慧定義,藉以在維持監管目標確定與規範連貫性的同時,仍然能實現靈活性。 (2)主要針對具有真實、可識別與不可接受的風險水準的人工智慧應用進行規範,以避免範圍過大扼殺創新。 (3)制定具有連貫性的跨領域、跨部門原則,確保人工智慧生態系統簡單、清晰、可預測且穩定。 (4)要求監管機構考量更寬鬆的選擇,以指導和產業自願性措施為主。 在跨領域、跨部門原則方面,英國政府則建議所有針對人工智慧的監管遵循六個總體性原則,以保障規範連貫性與精簡程度。這六個原則是基於經濟合作暨發展組織(OECD)的相關原則,並證明了英國對此些原則的承諾: 1.確保人工智慧技術是以安全的方式使用 2.確保人工智慧是技術上安全的並按設計運行 3.確保人工智慧具有適當的透明性與可解釋性 4.闡述何謂公平及其實施內涵並將對公平的考量寫入人工智慧系統 5.規範人工智慧治理中法律主體的責任 6.釋明救濟途徑 除了「人工智慧監管政策說明」外,英國政府也發布了「人工智慧行動計畫」(AI Action Plan)文件,彙整了為推動英國「國家人工智慧策略」(National AI Strategy)而施行的相關行動。前述計畫中亦指出,今年底英國政府將發布人工智慧治理白皮書並辦理相關公聽會。
美國政府課責署重視NPE濫訴現象,並提出「patent monetization entities」概念近年專利蟑螂(Paten Troll)、非專利實施實體(Non-Practicing Entity, NPE)的興起,使得國際上智慧財產權的運用出現巨幅變化。美國政府、企業及學界皆認為專利蟑螂濫訴現象為亟待解決之課題,而相繼投入研究,並於近日陸續發表重要之研究報告。 繼今年(2012)8月,美國國會研究處 (Congressional Research Service)提出對抗專利蟑螂之研究報告後(“An Overview of the "Patent Trolls" Debate”)。隸屬國會的政府課責署(Government Accountability Office, GAO, 另譯審計總署)所資助的研究團隊,亦於杜克大學科技與法律評論(Duke Law & Technology Review)發表相關研究。研究團隊採取實證的研究方法,於2007年~2011年間,每年度隨機抽樣100家涉及專利訴訟的公司,總計抽樣500家公司。依據該項研究結果,去年(2011)由NPE所提起的專利訴訟,佔研究樣本的40%,相較於5年前的數據,成長幅度高達2倍。本項研究可歸納以下兩項要點: 1.專利訴訟主體的變化 由NPE為原告所提起的專利訴訟數量呈現極速成長;由企業為原告者則逐年下降;同為非專利實施實體之大學,其作為原告所提起之訴訟則未達1%。 2.訴訟並未進行實質審理 由NPE提起之訴訟,其目的在於獲取和解金或授權金,故絕大多數係申請作成即時判決(summary judgement),即當事人一致認為對重要事實不存在爭議,而向法官申請不為事實審理,僅就法律問題進行裁決。 就此,該研究團隊認為,NPE已成為專利制度,甚至係整體經濟之一環,故提出應以「patent monetization entities」取代過往NPE的稱呼,強調此類公司以專利授權或專利訴訟作為公司營利之來源,如此將更為貼切。
日本經產省和總務省共同發布AI業者指引草案,公開徵集意見因應生成式AI(Generative AI)快速發展,日本經產省和總務省彙整及更新自2017年起陸續發布之各項AI指引,於2024年1月19日共同公布「AI業者指引草案」(AI事業者ガイドライン案,以下簡稱指引),公開向民眾徵集意見。上述草案除提出AI業者應遵守以人為本、安全性、公平性、隱私保護、透明性、問責性、公平競爭、創新等共通性原則外,並進一步針對AI開發者(AI Developer)、AI提供者(AI Provider)及AI利用者(AI Business User)提出具體注意事項,簡述如下: (1)AI開發者:研發AI系統之業者。由於在開發階段設計或變更AI模型將影響後續使用,故指引認為開發者應事先採取可能對策,並在倫理和風險之間進行權衡,避免因重視正確性而侵害隱私或公平性,或因過度在意隱私保護而影響透明性。此外,開發者應盡量保留紀錄,以便於預期外事故發生時可以進行說明。 (2)AI提供者:向AI使用者或非業務上使用者提供AI系統、產品或服務之業者。提供者應以系統順利運作及正常使用為前提,提供AI系統和服務,並避免侵害利害關係人之利益。 (3)AI使用者:基於商業活動使用AI系統或服務之業者。使用者應於提供者所設定之範圍內使用AI,以最大限度發揮AI效益,提高業務效率及生產力。