德國向歐盟提交《人工智慧白皮書-歐洲卓越與信任概念》及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》意見

  德國聯邦政府於2020年6月29日,針對歐盟執委會於2020年2月19日公布的《人工智慧白皮書-歐洲卓越與信任概念》(Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen)及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》(Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung) 提交意見,期能促進以負責任、公益導向、以人為本的人工智慧開發及使用行為,並同時提升歐盟的競爭力及創新能力。

  歐盟執委會所發布的人工智慧的白皮書及人工智慧對安全和責任的影響報告,一方面可促進人工智慧使用,另一方面則藉此提醒相關風險。本次意見主要集結德國聯邦經濟與能源部、教育與研究部、勞動與社會事務部、內政、建築及社區部以及司法與消費者保護部之意見。德國政府表示,投資人工智慧為重要計畫之一,可確保未來的創新和競爭力,以及應對諸如COVID-19疫情等危機。最重要的是,可透過人工智慧的應用扶持中小型公司。然而在進行監管時,必須注意應促進技術發展而非抑制創新。

  在《人工智會白皮書-歐洲卓越與信任概念》中指出,人工智慧發展應在充分尊重歐盟公民的價值觀和權利的前提下,實現AI的可信賴性和安全發展之政策抉擇,並於整體價值鏈中實現「卓越生態系統」(Ökosystem für Exzellenz),並建立適當獎勵機制,以加速採用AI技術為基礎之解決方案。未來歐洲AI監管框架將創建一個獨特的「信任生態系統」(Ökosystem für Vertrauen),並確保其能遵守歐盟法規,包括保護基本權利和消費者權益,尤其對於在歐盟營運且具有高風險的AI系統更應嚴格遵守。此外,應使公民有信心接受AI,並提供公司和公共組織使用AI進行創新之法律確定性。歐盟執委會將大力支持建立以人為本之AI開發方法,並考慮將AI專家小組制定的道德準則投入試行階段。德國政府指出,除了要制定並遵守歐洲AI的監管政策外,應特別注重保護人民之基本權,例如個人資料與隱私、消費者安全、資料自決權、職業自由、平等待遇等,並呼籲國際間應密切合作,運用人工智慧技術克服疫情、社會和生態永續性等挑戰。另外,德國政府亦支持將人工智慧測試中心與真實實驗室(監理沙盒場域)相結合,以助於加速企業實際運用,也將帶頭促進AI在公部門之運用。

  在《人工智慧,物聯網和機器人技術對安全和責任之影響報告》中則指出,歐洲希望成為AI、IoT和機器人技術的領導者,將需要清楚、可預測的法律框架來應對技術的挑戰,包括明確的安全和責任框架,以確保消費者保護及企業合法性。AI、IoT和機器人技術等新數位技術的出現,將對產品安全性和責任方面出現新挑戰,而在當前的產品安全法規上,缺乏相關規範,特別是在一般產品的安全指令,機械指令,無線電設備指令等,未來將以一致地在各框架內針對不同法律進行調修。在責任方面,雖然原則上現有法令尚仍可應對新興技術,但人工智慧規模的的不斷變化和綜合影響,將可能增加對受害者提供賠償的困難度,導致不公平或效率低下的情形產生,為改善此一潛在不確定性,可考慮在歐盟層級調修產品責任指令和國家責任制度,以顧及不同AI應用所帶來的不同風險。德國政府除了支持歐盟作法,在創新與監管取得平衡,更強調應不斷檢視產品安全和產品責任法是否可滿足技術發展,尤其是對重要特定產業的要求,甚至修改舉證責任。並可透過標準化制定,加速人工智慧相關產品與服務的開發。另外,應依照風險高低擬定分類方法,並建議創建高風險AI系統之註冊與事故報告義務,以及相關數據保存、記錄及資料提供之義務,針對低風險AI應用則採自願認證制度。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 德國向歐盟提交《人工智慧白皮書-歐洲卓越與信任概念》及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》意見, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8546&no=64&tp=1 (最後瀏覽日:2026/03/16)
引註此篇文章
你可能還會想看
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

歐盟執委會發布指引以因應《人工智慧法》「禁止的人工智慧行為」條文實施

歐盟執委會於2025年2月4日發布「關於禁止的人工智慧行為指引」(Commission Guidelines on Prohibited Artificial Intelligence Practices)(下稱「指引」)」,以因應歐盟《人工智慧法》(AI Act,下稱AIA)第5條關於「禁止的人工智慧行為」之規定。該規定自2月2日起正式實施,惟其內容僅臚列禁止行為而未深入闡釋其內涵,執委會特別制定本指引以避免產生歧義及混淆。 第5條明文禁止使用人工智慧系統進行有害行為,包括:利用潛意識技術或利用特定個人或群體之弱點進行有害操縱或欺騙行為、實施社會評分機制、進行個人犯罪風險預測、執行無特定目標之臉部影像蒐集、進行情緒識別分析、實施生物特徵分類、以及為執法目的而部署即時遠端生物特徵識別系統等。是以,指引就各禁止事項分別闡述其立法理由、禁止行為之具體內涵、構成要件、以及得以豁免適用之特定情形,並示例說明,具體詮釋條文規定。 此外,根據AIA規定,前述禁令僅適用於已在歐盟境內「投放市場」、「投入使用」或「使用」之人工智慧系統,惟對於「使用」一詞,並未予以明確定義。指引中特別闡明「使用」之定義,將其廣義解釋為涵蓋「系統投放市場或投入使用後,在其生命週期任何時刻的使用或部署。」 指引中亦指出,高風險AI系統的特定使用情境亦可能符合第5條的禁止要件,因而構成禁止行為,反之亦然。因此,AIA第5條宜與第6條關於高風險AI系統的規定交互參照應用。 AIA自通過後,如何進行條文內容解釋以及法律遵循義務成為各界持續討論之議題,本指引可提升AIA規範之明確性,有助於該法之落實。

美國總統發布行政命令啟動創世紀任務,整合AI資源加速科學發現,鞏固AI技術領導地位

美國總統川普於2025年11月24日發布行政命令(Executive Order)啟動創世紀任務(Launching The Genesis Mission),旨在建立美國科學與安全AI平臺(下稱AI平臺),整合聯邦政府長期累積之科學資料集、國家研發及運算資源,訓練可自動化研究、加速科學發現之AI模型,強化國家安全、提高勞動生產力及研發投資報酬率,鞏固美國AI技術領導地位。 行政命令重點如下: (1)權責分配:由能源部長(Secretary of Energy)確保將執行創世紀任務所需資源統一整合至AI平臺,並訂定安全計畫。由總統科學技術助理(Assistant to the President for Science and Technology, APST)領導,透過國家科學技術委員會(National Science and Technology Council, NSTC)協調所有參與之行政部門。 (2)AI平臺之運作:提供能源部國家實驗室超級電腦、安全雲端運算環境等高效能運算資源、AI建模與分析框架、運算工具、各學科領域基礎模型,並在適法前提下,提供聯邦政府所管理之資料集、開放科學資料集或能源部生成之合成資料集。 (3)識別國家科學技術挑戰:能源部長應提交創世紀任務優先應對之國家重要科學技術挑戰清單,涵蓋先進製造、生物科技、關鍵原物料、核能、量子資訊科學、半導體與微電子學領域,經APST審查並與NSTC參與成員研議後定案。 (4)跨部門協調及外部參與:召集相關部門參與,訂定資源配置計畫整合各部門可用資料與基礎設施。提供獎補助,鼓勵私部門參與符合任務目標之AI驅動科學研究。設立研究獎學金、實習與學徒制計畫,提供AI平臺使用權及AI賦能科學發現培訓。在維護聯邦研究資產安全及公共利益最大化之前提下,建立標準化合作夥伴機制,與擁有先進AI、資料、運算能力或科學專業知識之外部夥伴合作。 行政命令就前述事項設定執行時程,且明定自發布之日起1年內及此後每年,能源部長應向總統提交報告,說明各事項之運作情況與達成成果。

歐盟電信網路新修規章通過網路中立條款

  2015年10月27日歐洲議會通過電信網路新修規章(Regulation 2015/2120),內容包括網路中立(Net Neutrality)條款,該規章將拘束歐盟全體會員國之資訊通信法規,並確立歐盟境內之網路中立原則。在本次立法之前,歐盟境內未建立統一的網路中立法規,僅荷蘭、斯洛維尼亞及芬蘭制定國內網路中立法規。   網路中立係指各種網路應用、內容或服務,均應受到平等對待,網路服務業者 (Internet Service Provider,以下簡稱ISP)不得任意實施差別待遇,例如攔阻(blocking)、延後傳送順序或降速(throttling)等。依據歐盟新修規章第3(3)條規定,ISP應平等處理所有網路流量,但同條之例外條款允許ISP在特定條件下,採取合理的流量管制措施。ISP流量管制之標的必須係基於因技術上服務需求之差異,所客觀形成之不同類別,換句話說,ISP不得因商業考量而對個別網路使用者產生差別待遇,僅得針對客觀的類別進行流量差異管制,例如點對點(Peer-to-Peer,P2P)傳輸軟體下載與語音電話,因流量傳輸需求不同,屬於不同的類別,是故,對於這兩種類別可採取不同之傳輸速度。同時,ISP的管制措施必須符合透明、非歧視性及比例原則。ISP亦不得監看特定內容,而管制期間不得超過必要之期限。   除了上述因客觀類別所採取之差別待遇之外,該規章亦賦予ISP得因特定法定事項而採取流量管制,該法定事項包括: 1.基於法律規範或執法需要而進行管制:包括符合歐盟法或會員國國內法之規定、以及法院或行政機關之命令或授權。 2.為了維持網路服務之完整性及安全性所採取之管制,包括網路、透過網路提供之服務或終端使用者(個人及企業)之終端設備。 3.防止即將產生之網路塞車或減輕網路塞車情況,但其前提為相同之網路服務類別必須給予平等之待遇。   歐盟之新修規章試圖在網路中立原則下,建立合理的管制措施規範。但該規章仍存有一些爭議性,包括: 1.為了讓醫療用途等網路流量能被優先處理,該規章允許ISP針對類別差異給予不同傳輸速度。但類別之區分方式仍不夠明確,可能導致ISP得恣意實施差別待遇。 2.法條未限制網路公司與電信業者結盟,ISP可依據商業契約讓某些網路使用不計入資費的使用量(zero rating),可能導致大公司占據競爭優勢,不利新興公司的發展。 3.有關加密資料之類別決定,ISP須進行解密查看才知道該加密資料符合何種傳輸類別,但此舉會引發資料保護之問題,因此加密資料之傳輸問題仍尚待解決。 4.為了促使網路暢通,該規章允許網路塞車時或有塞車之虞時,ISP可進行流量管制。但後續必須清楚界定網路塞車之虞的情況,以避免賦予ISP過多管制權限。   歐盟新修規章已完成立法,後續將交由歐盟電信管制機關(Body of European Regulators for Electronic Communications,BEREC)訂立細部辦法,以拘束歐盟各會員國的網路服務業者,同時各會員國也必須修改國內相關法規,以符合該規章之規範。

TOP