日本數位廳(デジタル庁)與內閣府智慧財產戰略推進事務局(内閣府知的財産戦略推進事務局)於2022年3月4日公布「平台資料處理規則實務指引1.0版」(プラットフォームにおけるデータ取扱いルールの実装ガイダンス ver1.0,簡稱本指引)。建構整合資料提供服務的平台,將可活用各種資料,並創造新價值(如提供個人化的進階服務、分析衡量政策效果等),為使平台充分發揮功能,本指引提出平台實施資料處理規則的六大步驟:
加拿大交通部(Department of Transport Canada)於2019年1月發布「加拿大自駕系統安全評估(Safety Assessment for Automated Driving Systems in Canada)」文件,該文件將協助加拿大企業評估其發展高級(SAE第三級至第五級)自駕層級車輛之安全性,並可與美國相關政策進行整合。該文件指出,因相關技術尚在發展之中,不適合使用強制性規範進行管制,因此將利用引導性之政策措施來協助相關駕駛系統安全發展。加拿大交通部於文件中指出可用於評估目前自駕車輛研發成果之13種面向,並將其分類為三個領域: 自駕技術能力、設計與驗證:包含檢視車輛設計應屬何種自駕層級與使用目的、操作設計適用範圍、物件及事件偵測與反應、國際標準、測試與驗證等。 以使用者為核心之安全性:包含安全系統、人車界面與控制權的可取得性、駕駛/使用人能力與意識教育、撞擊或系統失靈時的運作等。 網路安全與資料管理:包含管理網路安全風險策略、售後車輛安全功能運作與更新、隱私與個資保障、車輛與政府分享之資訊等。 加拿大交通部鼓勵企業利用該文件提出安全評估報告並向公眾公開以增進消費者意識,另一方面,該安全評估報告內容也可協助加拿大政府發展相關安全政策與規範。
美國國防授權法案擴大告發者保護範圍透過外部監督有效遏止不法行為自2013年7月1日起,2013年國防授權法(2013 National Defense Authorization Act,NDAA)新規定生效,使得聯邦政府採購案件對告發不法行為者(whistleblower)的保護,由承包商的雇員擴及於分包商的雇員,在此之前,如果分包商的員工向政府直接告發不法行為時,絲毫沒有法律可以用於對抗雇主可能採取的報復措施。 2013 NDAA業於1月份經美國總統簽署,期中除新增對於分包商雇員保護外,該法案也擴張了主包商員工的保護範圍。新法之下,主包商員工如向其公司內部之主管告發不法行為,一樣可以受到法律對告發者的保護,強化了現行法下只有直接對政府申訴者始能得到法律保護。 根據2013 NDAA第828節之規定,承包商、分包商之雇員,都不能被解雇、降級或其他歧視行為以作為揭發行為之報復。當這些雇員合理認為有關於聯邦契約的管理不善、聯邦經費的浪費、或濫用聯邦契約授與之權力等行為,而可能造成潛在的或特定的對公共健康或安全之危害時,或違反聯邦契約行為有關法律或法規時,而向國會議員、稽查總長、政府課責辦公室(The Government Accountability Office)、聯邦契約管理人員、司法部人員、法院或陪審團、承包商或次包商負責調查不法之人員等提供資訊時。法規也明訂,條文中所謂報復,包括該等人員即使是受到行政機關人員在法定權限內的的正式要求而提供資訊時亦然。
何謂「合作專利分類」?美國專利商標局(USPTO)與歐洲專利局(EPO)簽署協議,合作開發「以歐洲專利分類系統為基礎,並納入兩局分類實務特點」的共同分類系統:「合作專利分類」(Cooperative Patent Classification, CPC)系統,該系統為全球性的專利文件分類系統。USPTO與EPO為促進專利調合化,積極努力並共同合作建立CPC系統,該系統結合了兩局最好的分類作法,為專利技術文件建立一個共同且為國際間相容的分類系統,供專利審查使用。CPC於2013年1月1日宣布正式啟用,EPO開始使用CPC,不再使用歐洲專利分類(ECLA);2015年1月1日,USPTO正式宣告成功由美國專利分類(USPC)轉換至CPC。目前已有超過45個專利局與超過 25,000名審查人員使用CPC作為檢索工具,使CPC成為國際性的分類標準。
美國情報體系發布「情報體系運用人工智慧倫理架構」美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。