德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南

  德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南,旨在提升企業數位化與社會責任,並提升消費者權益保護。

  德國司法及消費者保護部次長Gerd Billen於會議中指出,無論技術細節和具體應用如何發展,法律和消費者保護政策應確保人工智慧安全性,且不因此受歧視,以及盡可能確保技術利用透明度。而隨著人工智慧的發展,應設法解決使用人工智慧產生的法律問題。

  例如,如何在製造商,供應商和消費者之間公平分配責任歸屬問題?在家庭,物流和手術室等領域已有越來越多具備自我學習的機器人被應用,相關權利是否會有所不同?如果機器出現不明原因故障,會發生什麼情況及如何處置?當機器透過在製造時尚未完全預定的環境感官認知做出具體決定時,該自動行為所生效力為何?

本份指南則提出六項建議:

  1. 促進企業內部及外部訂定相關準則
  2. 提升產品及服務透明度
  3. 使用相關技術應為全體利益著想
  4. 決策系統的可靠性仍取決資料的準確性。
  5. 重視並解決解決機器偏差問題
  6. 在特別需要負責的決策過程,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。

本文為「經濟部產業技術司科技專案成果」

※ 德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8070&no=64&tp=1 (最後瀏覽日:2026/01/13)
引註此篇文章
你可能還會想看
數位商品交易金流機制之法律問題

美國國防部「人工智慧國防運用倫理準則」

  美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。   美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。   倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。   美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。   除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。

歐盟發布「人工智慧白皮書」以因應人工智慧未來可能的機遇與挑戰

  人工智慧目前正快速發展,不論是在醫療、農業耕作、製造生產或是氣候變遷等領域上,均帶來了許多改變,然而在人工智慧應用之同時,其也存在許多潛在風險如決策不透明、歧視或其他倫理與人權議題。   歐盟為求在全球競爭激烈的背景下,維護其於人工智慧相關領域的領先地位,並確保人工智慧技術於改善歐洲人民生活的同時,亦能尊重(respecting)人民權利,乃於今年(2020年)2月發布「人工智慧白皮書」(White Paper on Artificial Intelligence),將採投資及監管併用之方式,促進人工智慧應用與解決其相關風險,其對於未來促進人工智慧的應用(promoting the uptake of AI)與相關風險解決,計畫朝向建立卓越生態系統(An Ecosystem of Excellence)及信任生態系統(An Ecosystem of Trust)兩方面進行。   在建立信任生態系統中,歐盟提到因為人工智慧具有變革性的潛力,所以就信任的建立乃至關重要,未來歐洲人工智慧的監管框架除了須確保遵守歐盟法規外(包括基本權利保護與消費者權益維護之規範),對於高風險性之人工智慧應用,其將強制要求需於銷售前進行合格評定(mandatory pre-marketing conformity assessment requirement)。而有關高風險性之定義,歐盟於該白皮書指出須符合以下兩個要件: 考量人工智慧應用之一般活動特徵,其預計會有重大風險的發生,例如在醫療保健、運輸、能源和可能屬於高風險的公共領域;以及 在預期用途或應用上都可能對個人(individual)或企業(company)帶來重大的風險,特別是在安全性(safety)、消費者權益(consumer rights)與基本權利(fundamental rights)上。   歐盟委員會目前針對於以上白皮書之內容與附隨報告,將向公眾徵詢意見至今年5月19日。

日本施行「資金結算法」修正,承認比特幣具有財產價值,得作為交易的支付手段。

  日本2017年4月施行「資金結算法(資金決済法)」修正,正式承認虛擬貨幣作為支付工具,其本身得為買賣(與法定貨幣為交換),具有財產價值得以電子方式移轉之電子資訊,但是不等於法定貨幣。依據該法第2條第5項之定義規定,具有以下性質之財產價值者為虛擬貨幣:(1)對於不特定人,得作為代金支付之使用,而且與法定貨幣(日圓或美元等)得為互相交易;(2)以電子數位技術為紀錄與移轉;(3)非為法定貨幣或法定貨幣所成立之資產(預付卡等)。   2014年以東京為據點世界最大比特幣交易所Mt.Gox發生破產,導致鉅額比特幣消失事件,為了保護消費者與防止洗錢而為法律制度之整備。該法對於虛擬貨幣交易所為管制,(1)要求提供虛擬貨幣交易服務之交易所必須為登記(必須為股份有限公司以及資本額1000萬日圓以上);(2)對於利用者必須為適切之資訊提供;(3)為了適切管理利用者財產,業者必須將利用者之財產及虛擬貨幣與自身之財產分離管理;(4)為了防制洗錢,交易時必須為本人確認;(5)對於交易所為日常業務監督,必須作成帳冊書類及報告書,並提出具有會計師或監察法人簽證稽核之報告書,管制機關得為進入檢查、行使業務改善命令等之監督權。今年9月底,有11家完成登記程序,12月4日有5家完成登記,共16家目前為登記合法之比特幣交易所。   近來日本大型家電量販店等已有承認比特幣等虛擬貨幣可以作為支付手段,其他承認虛擬貨幣作為支付手段的商店也漸漸增加中,虛擬貨幣與一般民眾的生活漸為結合。但是虛擬貨幣仍有其風險,從國民或消費者保護觀點,政府也在相關處所加入明顯警語,提醒民眾虛擬貨幣並非法定貨幣,國家不保證其價值,而且虛擬貨幣之價值,會因買賣或經濟狀況等會有價值波動情形。利用虛擬貨幣交換業者之服務時,應注意僅得以在金融廳登記有案之業者為對象,同時此等業者負有說明義務,對於利用者有提供虛擬貨幣相關機制之資訊(包含交易內容與手續費),利用者應先聽取後,再決定是否為交易。利用者對於虛擬貨幣交易經歷或戶頭餘額應隨時確認,而業者至少3個月一次有提供利用者交易紀錄與餘額資訊之義務。

TOP