德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南

  德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南,旨在提升企業數位化與社會責任,並提升消費者權益保護。

  德國司法及消費者保護部次長Gerd Billen於會議中指出,無論技術細節和具體應用如何發展,法律和消費者保護政策應確保人工智慧安全性,且不因此受歧視,以及盡可能確保技術利用透明度。而隨著人工智慧的發展,應設法解決使用人工智慧產生的法律問題。

  例如,如何在製造商,供應商和消費者之間公平分配責任歸屬問題?在家庭,物流和手術室等領域已有越來越多具備自我學習的機器人被應用,相關權利是否會有所不同?如果機器出現不明原因故障,會發生什麼情況及如何處置?當機器透過在製造時尚未完全預定的環境感官認知做出具體決定時,該自動行為所生效力為何?

本份指南則提出六項建議:

  1. 促進企業內部及外部訂定相關準則
  2. 提升產品及服務透明度
  3. 使用相關技術應為全體利益著想
  4. 決策系統的可靠性仍取決資料的準確性。
  5. 重視並解決解決機器偏差問題
  6. 在特別需要負責的決策過程,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。

本文為「經濟部產業技術司科技專案成果」

※ 德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8070&no=57&tp=1 (最後瀏覽日:2026/04/30)
引註此篇文章
你可能還會想看
從RFID的應用談科技變遷下的人權議題

2025年美國法院以「後設資料」作為審理AI深偽數位證據案件之重點

2025年9月Mendones v. Cushman and Wakefield, Inc.案(下稱Mendones案),面對生成式AI與深偽(deepfakes)對數位證據真實性的威脅,美國法院特別提到針對後設資料(metadata)的審查。 基於Mendones案原告提交9項涉嫌使用生成式AI的數位證據,其中證詞影片6A與6C影片具備「人物缺乏臉部表情、嘴型與聲音不相符,整體表現像機器人一樣」且「影片內容循環撥放」等AI深偽影片之典型特徵,法院懷疑原告舉證的數位證據為AI深偽影片。 因此,法院要求原告須提出該影片的後設資料,包含文件格式、創建/修改日期、文件類型、拍攝影片的快門速度等客觀資訊。 法院表示,原告提交的後設資料不可信,因為包含許多通常不會出現在後設資料的資訊(非典型的資訊),例如:著作權聲明。且法院進一步指出,許多非典型的資訊被放在不相關的欄位,例如:Google地圖的URL網址、電話號碼、GPS座標及地址等被放在「音樂類型」(musical genre)欄位內。因此法院懷疑,前述「非典型之後設資料」是被有存取文件與編輯權限的人添加的「後設資料」。 原告則主張,其透過iOS 12.5.5版本作業系統的Apple iPhone 6 Plus手機拍攝影片6A。法院指出,直到iOS 18版本作業系統,iPhone才推出可用於生成深偽影片的新功能「Apple Intelligence」相關技術,且該版本需要使用iPhone 15 Pro或更新的手機機型,因此法院發現技術上的矛盾。 法院認為,本案生成式AI影片已超越提交虛假引文(Fictitious Citations,即過往案例曾出現過律師提出AI虛構的判例之情況)的範疇。在訴訟中使用深偽證據,嚴重影響了法院的審理與公眾對司法的信任,並增加法院評估該證據是否為深偽之成本。因此,法院採取嚴厲的永久駁回訴訟(dismissed with prejudice),以表示對企圖以深偽資料為證據的行為持「零容忍」態度。 Mendones案展現法院審理AI深偽數位證據的細節,如「審視後設資料之內容準確、完整」為法院確認數位證據真實性的重要手段。 面對AI時代下數位證據的挑戰,我國司法院、法務部、臺灣高等檢察署、內政部警政署及法務部調查局共同推動之「司法聯盟鏈共同驗證平台」,以「b-JADE證明標章」結合區塊鏈技術。「b-JADE證明標章」確保鏈下管理數位資料原檔的機制,以及鏈上的「存證資料」包含「與數位原檔資料最終版本連結的『必要後設資料』」、雜湊值及時戳,如能妥適運用司法聯盟鏈進行證據「驗真」程序,將有助於強化數位信任。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

何謂「阿西洛馬人工智慧原則」?

  所謂「阿西洛馬人工智慧原則」(Asilomar AI Principles),是指在2017年1月5日至8日,於美國加州阿西洛馬(Asilomar)市所舉行的「Beneficial AI」會議中,由與會的2000餘位業界人士,包括844名學者專家所共同簽署的人工智慧發展原則,以幫助人類運用人工智慧為人類服務時,能確保人類的利益。   該原則之內容共分為「研究議題」( Research Issues)、「倫理與價值觀」( Ethics and Values),及「更長期問題」( Longer-term Issues)等三大類。   其條文共有23條,內容包括人工智慧的研究目標是創造有益的智慧、保證研究經費有益地用於研究人工智慧、在人工智慧研究者和政策制定者間應有具建設性並健康的交流、人工智慧系統在其整個運轉周期內應為安全可靠、進階人工智慧系統的設計者及建造者在道德層面上是其使用、誤用以及動作的利害關係人,並應有責任及機會去影響其結果、人工智慧系統應被設計和操作為和人類尊嚴、權利、自由和文化多樣性的理想具一致性、由控制高度進階人工智慧系統所取得的權力應尊重及增進健康社會所需有的社會及公民秩序,而非顛覆之,以及超級智慧應僅能被發展於服務廣泛認同的倫理理想,以及全人類,而非單一國家或組織的利益等等。

強制蒐集人體生物資料的人權標準-聯合國人權事務委員會的見解

TOP