德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南

  德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南,旨在提升企業數位化與社會責任,並提升消費者權益保護。

  德國司法及消費者保護部次長Gerd Billen於會議中指出,無論技術細節和具體應用如何發展,法律和消費者保護政策應確保人工智慧安全性,且不因此受歧視,以及盡可能確保技術利用透明度。而隨著人工智慧的發展,應設法解決使用人工智慧產生的法律問題。

  例如,如何在製造商,供應商和消費者之間公平分配責任歸屬問題?在家庭,物流和手術室等領域已有越來越多具備自我學習的機器人被應用,相關權利是否會有所不同?如果機器出現不明原因故障,會發生什麼情況及如何處置?當機器透過在製造時尚未完全預定的環境感官認知做出具體決定時,該自動行為所生效力為何?

本份指南則提出六項建議:

  1. 促進企業內部及外部訂定相關準則
  2. 提升產品及服務透明度
  3. 使用相關技術應為全體利益著想
  4. 決策系統的可靠性仍取決資料的準確性。
  5. 重視並解決解決機器偏差問題
  6. 在特別需要負責的決策過程,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。

本文為「經濟部產業技術司科技專案成果」

※ 德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8070&no=67&tp=1 (最後瀏覽日:2026/03/12)
引註此篇文章
你可能還會想看
美國加州於6月28日通過新版個資隱私法規

  加州立法體系在2018年6月28日通過了美國最嚴格的個人資料隱私法規,該法案無異議通過,並已經加州州長Jerry Brown簽署同意,將於2020年1月1日施行,以賦予科技產業修正其內部政策的緩衝期間。   該法案之所以如此速戰速決,據媒體解讀是為了避免該法案內容成為加州11月選舉併公民投票之公投提案的一部分。如以公投方式通過這部法規,日後修正時將重新以公民投票進行,有造成修法困難的疑慮;而以立法者立法方式通過這部法規,賦予立法者有對其修訂改正權限,於日後能以一般修法程序進行修法。   該法案內容與2018年5月25日實施的歐洲GDPR規範相近似,將造成加州原先隱私權規範些許改變,與倡議最初法案不同的地方在於,揭露接受個資第三人的相關資料時需揭露該第三者之類型(category)而非其身分。   隨著本年度加州消費者隱私保護法(The California Consumer Privacy Act)的修法,大型科技公司如Google和Facebook等蒐集有大量消費者個人資料者,都將受到重大影響,依據該法,一般使用者可以向企業確認被蒐集的個資種類以及個資販賣流向,亦可以請求中止個資的蒐集及販賣,提升了一般使用者在以往對於個資使用上的地位。   自歐洲GDPR規範實施以來至目前,美國聯邦法尚未有相應強度之規範,本次加州修法可認係GDPR實施以來美國國內第一部因應而修正之法律。

韓國首例 逮捕非法卵子掮客

  韓國警方在新頒布的 「生命倫理及安全法」 正式實施後,第一次 逮捕 一名涉嫌非法出售人類卵子的金姓男子,卵子的來源乃是該名男子利用積欠其高額債務的女子出售所得的。   警方在搜查了首爾地區的四家醫院後,起訴了涉嫌出售卵子的兩名大學生和一位主婦,並調查其他涉嫌利用網路從事掮客生意,將韓國女性的卵子出售給國內外 不孕夫妻 。 調查顯示,非法大型網站買賣女性卵子現象在韓國正日益猖獗,提供卵子的女性絕大多數都是因經濟困難 。   「生命倫理及安全法」於今年 1 月 1 日開始施行,該法律除了禁止買賣卵子和雇用代理母外,也是韓國作為禁止複製人類之法律依據。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

多普達的電視手機被控鏈結侵權,一審被判訴

  多普達在2004年即將結束時接到了北京市海澱區人民法院的判決,原告北京央視公?資訊有限公司在一審中勝訴,不過,多普達總裁楊興平在今天的一個公開場合表示已經在準備上訴,“多普達有信心打贏這場官司。”楊興平說。   台灣手機廠商多普達於2004年3月在大陸推出型號為535之智慧型手機,此款手機具有強大的視頻功能,可藉由超連結收看網路電視。而多普達也在該款手機上內建了大陸中央電視台的頻道鏈結,讓使用者可以收看CCTV-新聞、CCTV-4、CCTV-9三個頻道的節目。不過,與中央電視臺簽有授權於電信網路傳播合同的央視公?,於2004年8月13日控告多普達侵權,要求多普達財償人民幣50萬元。   此案於2004年12月30日經海澱區人民法院判決多普達公司侵害央視公?公司在電信領域所取得的中央電視臺節目傳播權,應停止使用CCTV-新聞、CCTV-4、CCTV-9節目、在相關媒體上道歉,並賠償央視公?公司經濟損失共計37.1萬元。而且,法院還要求多普達的經銷商停止銷售該款手機。多普達則決定向北京市中級人民法院提出上訴。

TOP