美國白宮科技政策辦公室(Science and Technology Policy, OSTP)在2020年1月6日公布了「人工智慧應用監管指南(Guidance for Regulation of Artificial Intelligence Applications)」,提出人工智慧(AI)監管的十項原則,此份指南以聯邦機構備忘錄(Memorandum for the Heads of Executive Departments and Agencies)的形式呈現,要求政府機關未來在起草AI監管相關法案時,必須遵守這些原則。此舉是根據美國總統川普在去(2019)年所簽署的行政命令「美國AI倡議」(American AI Initiative)所啟動的AI國家戰略之一,旨在防止過度監管,以免扼殺AI創新發展,並且提倡「可信賴AI」。
這十項原則分別為:公眾對AI的信任;公眾參與;科學誠信與資訊品質;風險評估與管理;效益與成本分析;靈活性;公平與非歧視;揭露與透明;安全保障;跨部門協調。旨在實現三個目標:
一、增加公眾參與:政府機關在AI規範制定過程中,應提供公眾參與之機會。
二、限制監管範圍:任何AI監管法規實施前,應進行成本效益分析,且機關間應溝通合作,建立靈活的監管框架,避免重複規範導致限制監管範圍擴大。
三、推廣可信賴的AI:應考慮公平性、非歧視性、透明性、安全性之要求,促進可信賴的AI。
這份指南在發佈後有60天公開評論期,之後將正式公布實施。白宮表示,這是全球第一份AI監管指南,以確保自由、人權、民主等價值。
中國大陸文化部於日前頒布「網絡文化經營單位內容自審管理辦法」,要求「網絡文化經營單位」配置內容審核人員、建立內容管理制度。就其提供的數位産品、內容服務進行自我審核,以確保內容之合法性。 據中國大陸文化部表示,本次辦法的制定,亦是為了落實其國務院轉變政府職能、簡政放權的政策方向。特別在網路音樂、行動遊戲上,期待能透過企業自律機制,達到市場的有效管理。然而,由辦法中規定「按照法規規章規定應當報文化行政部門審查或者備案的網絡文化産品及服務,自審後應當按規定辦理」看來,此項「內容自審機制」暫時不會取代任何現有審批、備案制度。至於未來運作經驗的累積,相關規範是否會有所調整,以確實達到行政審批事項的下放、簡化目標,仍有待持續追蹤觀察。 此辦法預計於2013年12月1日起施行。未來相關內容審核工作,須透過經中國大陸文化行政部門培訓、考核,取得「內容審核人員證書」的人員進行。同時,在內容管理制度上,企業必須規範內容審核工作職責、標準、流程,保障內容審核人員獨立審核權限,並在內容管理制度完成制定後,報請所在地文化行政部門備案。對於台灣業者而言,在辦法施行後,應留意其合作之大陸「網絡文化經營單位」,是否符合上述規範,以避免對其產品拓展產生不利影響。
德國未來中型企業行動計畫 (Aktionsprogramm Zukunft Mittelstand)德國聯邦經濟暨能源部(Bundesministerium für Wirtshaft und Energie)、德國聯邦工業聯盟(Bundesverband der Deutschen Industrie)、德國工業與商務部(Deutsche Industrie- und Handelskammertag)及德國工藝中心(Zentralverband des Deutschen Handwerks)針對共同之目標擬定中型企業發展政策。該規劃於2015年7月23日柏林提出。該規劃重點為以下五個方針: 1. 企業精神培育(Gründergeist): 自1995至2014年德國新創企業的成長銳減30%。為要克服此問題,應讓德國學童在學校時就有「創業家」此一職涯選項。年輕的新創企業需要持續提升與企業合作與互動,並給予創新之顧問補助,像是新創顧問諮詢上的服務(該計畫名稱為Gründer Coaching Deutschland)。針對目前已經成立之中小型企業,相關補助及服務將自2016年會提出。 2. 數位化進程(Digitalisierung): 為提升中型企業的科學技術轉移,透過該計畫預計將在今年全德國新設立至5座技轉中心(Technologietransfer)。透過該中心,各個企業及工藝業者可得取有關產業面現狀發展、新興科技及商業模式的最新訊息,為讓其裝備成具數位化能力的業者。 3. 融資(Finanzierung): 透過歐盟投資及歐洲復甦基金(ERP/EIF)新興政策之發佈,將注入50億歐元用於輔助快速成長、資本集中之企業,以3至4百萬歐元的幅度做補助。此透過與歐盟投資銀行共同聚集的資金,將於2015年提供給企業申請。此次融資政策係歐盟投資及歐洲復甦基金從10億提升至17億歐元。 4. 勞工支配(Fachkräfte): 德國勞工的質量與優勢將透過「聯盟教育培訓計畫2015-2018(Allianz für Aus- und Weiterbildung 2015-2016)」做提升。每位年輕學子在就學期間,就應透過學校的輔助認清其就業路線,以助未來專業領域培訓及發展。「輔助中小型企業得取切合相關職業培訓及外來勞動力引入」補助計畫導入,目的亦係為讓德國勞動力更具優勢及競爭力。 5. 行政成本降低(Bürokratieabbau): 透過減免官僚程序法(Bürokratieentlastungsgesetz)的導入,將針對未來企業會計、紀錄、統計數據公開及回報的要求進行修改。此一法的導入將可讓德國中型企業7.44億歐元行政成本的減免。為了讓新創企業能夠更容易的開始營運,政府部門亦將更進一步的與業者接觸互動並連結,輔助新創企業中遇到創業程序上的服務及指導。透過相關行政程序的電子化管理,將可讓德國及至歐盟透過該新的管理標準省去過多的行政成本,並優化創業流程。
日本總務省暫緩《電波法》「取消無線電臺外資限制」修正案現行日本《電波法》第5條第1項規定,具有以下要件者不予頒發無線電臺執照,一、非日本國籍者;二、外國政府及其代表;三、外國公司或集團;四、法人、組織,其代表為前三款所列之人員,或者佔其管理人員三分之一以上或三分之一以上表決權之法人或組織。 前日本首相菅義偉內閣時期,總務省於今年6月召開專家會議,認為衛星通訊領域將帶來災害預測、交通遙測及智慧農業等各領域的新興應用,太空新創產業發展充滿了無限的可能性,為避免新創公司產生募集資金之困難,擬修正《電波法》,刪除「外資具三分之一以上表決權之法人或組織不予頒發無線電臺執照」之限制,以促進太空衛星新創產業發展。 然而,日本新首相岸田文雄內閣於今年10月15日由總務省舉行專家會議,提出不同見解,認為應就各無線通訊產業訂定不同程度之外資監管政策,如地區型無線廣播電臺產業、商業電視頻道產業及衛星通訊產業等,分別就其對經濟安全所涉層面進行不同程度之外資管制,故總務省決定暫緩《電波法》修正案,將持續蒐集專家意見進行研議。
澳洲數位轉型局12月發布《政府負責任使用人工智慧政策2.0》,以強化公部門之AI風險管理2025年12月初,澳洲數位轉型局(Digital Transformation Agency,下稱DTA)發布《政府負責任使用AI政策2.0》(Policy for the responsible use of AI in Government 2.0),旨在進一步強化公部門在AI的透明度、問責性與風險管理能力,於2025年12月15日生效,取代 2024年9月實施的過渡版本。 一、適用範圍 政策適用於所有非企業型聯邦實體(Non-corporate Commonwealth entities),即不具獨立法人地位、直接隸屬於政府的機關或單位。企業型聯邦實體則被鼓勵自願遵循。政策定位為「補充與強化既有法制」,非另訂獨立規範,因此在實務中須與公務員行為準則、資安規範及資料治理制度併行適用。 二、政策重點 在政策施行的12個月內,適用機關須完成以下要求,以確保落實AI治理架構: (一)制度建置 1. AI 透明度聲明:機關須在政策生效後 6 個月內發布「AI 透明度聲明」,公開 AI 使用方法與現況。聲明中須說明機關風險管理流程、AI 事件通報機制及內外部申訴管道,確保使用過程透明、可追蹤。 2. 人員指定與培訓: 機關須指定制度問責人員(Accountable officials)以及AI使用案例承辦人(Accountable use case owners)。 所有員工皆須進行關於負責任使用AI的培訓,機關並依員工職務權責提供個別員工進階訓練。 3. 建立內部AI使用案例註冊清單(Internal AI use case register),以供後續追蹤 該清單至少包含: (1)使用案例負責人(Accountable use case owners):記錄並持續更新範疇內 AI 使用案例的指定負責人。 (2)風險等級(Risk rating):AI使用案例的風險等級資訊。 (3)異動紀錄:當使用案例的風險評級或負責人變更時,須即時更新清單。 (4)自定義欄位:各機關可根據其需求,自行增加欄位。 (二)AI 使用案例範疇判斷 機關須在評估所有新案例,依以下特徵判斷AI應用是否屬於「範疇內(In-scope)」的應用: 1.對個人、社群、組織或環境造成重大損害。 2.實質影響行政處分或行政決策。 3.在無人工審查的情況下,大眾將直接與AI互動或受其影響。 4.涉及個人、敏感資料等資訊。 (三)進階風險評估 依AI影響評估工具(Impact Assessment Tool)針對公眾近用權;不公平歧視;加重刻板印象;損害人、組織或環境;隱私顧慮;資料敏感之安全顧慮;系統建置之安全顧慮;公眾信任等8類別,加以判斷範疇內AI應用,若有任一類別被評為「高風險」,即判定為「高風險」;若所有類別中最高的分數為「中風險」,則整體判定為中風險。 判定為中、高風險之AI應用,均需進行全面審核。中風險須列出所有中風險項目及其控管措施,主要為內部控管;而高風險則要求向DTA報告,且每年至少進行一次全面審核與風險再評估。 澳洲欲透過發布AI透明度聲明、更新AI使用案例註冊清單、強制執行AI應用之風險評估及人員培訓,確保公部門對AI的負責任使用與問責。而我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,落實AI資料管理與追蹤。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)