德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南

  德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南,旨在提升企業數位化與社會責任,並提升消費者權益保護。

  德國司法及消費者保護部次長Gerd Billen於會議中指出,無論技術細節和具體應用如何發展,法律和消費者保護政策應確保人工智慧安全性,且不因此受歧視,以及盡可能確保技術利用透明度。而隨著人工智慧的發展,應設法解決使用人工智慧產生的法律問題。

  例如,如何在製造商,供應商和消費者之間公平分配責任歸屬問題?在家庭,物流和手術室等領域已有越來越多具備自我學習的機器人被應用,相關權利是否會有所不同?如果機器出現不明原因故障,會發生什麼情況及如何處置?當機器透過在製造時尚未完全預定的環境感官認知做出具體決定時,該自動行為所生效力為何?

本份指南則提出六項建議:

  1. 促進企業內部及外部訂定相關準則
  2. 提升產品及服務透明度
  3. 使用相關技術應為全體利益著想
  4. 決策系統的可靠性仍取決資料的準確性。
  5. 重視並解決解決機器偏差問題
  6. 在特別需要負責的決策過程,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。

本文為「經濟部產業技術司科技專案成果」

※ 德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8070&no=64&tp=5 (最後瀏覽日:2026/03/17)
引註此篇文章
你可能還會想看
歐盟「Fit for 55」溫室氣體減量政策

  歐盟執委會於2021年7月14日公布一系列有關再生能源、能源效率、交通運輸、財稅政策、碳交易機制等議題之立修法提案。提案目的是希望整體制度能更加有助於歐盟氣候法(European Climate Law)中所設定減碳目標達成,於2030年減少相當於1990年55%的排碳量,故被稱為「Fit for 55」。   執委會為達成減碳目標,具體提案內容如下: (1)能源效率:修正《能源效率指令》(Energy Efficiency Directive),設定2030年能源消耗減少36~39%目標,並要求每年更新公部門建物至少3%,以提升能源效率; (2)再生能源:修正《再生能源指令》(Renewable Energy Directive),目標增加2030年的再生能源使用比例達現在的40%; (3)交通運輸:於陸路運輸,透過修正《小客車與輕型商用車新車二氧化碳排放規則》(Regulation setting CO2 emission standards for cars and vans),針對出廠新車制定2030年汽車55%、廂型商用車50%、2035年所有新車100%之減碳目標,並配合《替代燃料基礎設施規則》(Alternative Fuels Infrastructure Regulation)之修正,明訂高速公路每60公里設置充電站、150公里設置加氫站,以提供低碳運具之需求;於空運,歐盟航空永續燃料倡議(ReFuelEU Aviation Initiative),要求航空能源供應商增加永續燃料比例;針對海運,則透過歐盟海事燃料倡議(FuelEU Maritime Initiative),針對結合永續燃料與零排放科技的結果進行模擬,並設定最高排碳量。 (4)財稅政策:制定《碳邊境調整機制》(Carbon Border Adjustment Mechanism),針對被選定的目標產品(包含:水泥、電力、肥料、鋼鐵、鋁)訂定碳價格,於其自境外輸入時課徵稅費,以解決碳洩露問題;修正《能源稅指令》(Energy Taxation Directive),調整能源相關產品稅收計算方式、刪除不合時宜的規定,透過稅收調整能源使用之誘因,以貼近減碳需求。 (5)碳交易機制:修正《溫室氣體排放交易指令》(EU Emission Trading System Directive)擴大碳交易機制適用對象,納入海運、燃料供應中心,同時要求會員國應將碳交易所得,全數用於氣候能源相關計畫,以補足當前財務上的缺口。   總結而言,歐盟「Fit for 55」政策為使整體制度更符合2030年55%的減碳目標,透過個別部門減碳目標之設定、替代燃料之推動、財政誘因之調整等三種手段,希望多方面對減碳做出貢獻,以加速減碳的進程。

美國產業安全局發布2024年版出口管制案例彙編,協助產學界識別違法行為

美國商務部產業安全局(Bureau of Industry and Security,下稱BIS)於2024年7月1日發布出口管制刑事與行政執法案例彙編—《別讓這些事情發生在你身上!》(Don’t Let This Happen to You)。彙編內容除介紹BIS各單位的工作目標與組織架構外,也概述主管機關的裁罰手段,包括刑事及行政裁罰、避免行為人即將發生或繼續違法出口、再出口或國內移轉所採取之限制措施(Denial of Export Privileges)、列管制清單、沒收資產等;亦提供人民救濟管道,如提早通報違法行為的自願自主揭露(Voluntary Self-Disclosures)規定等;更收錄新的執法案例。 該彙編以中國、俄羅斯、伊朗及其他地區之出口目的地為主軸,就管制理由涉及國家安全、軍事、大規模毀滅性武器等理由,分別介紹重點違法案例。提供產、學界識別違法行為時之參考。 對於2024年結案的重點案例,重點摘要如下: 1.愛沙尼亞T公司違反美國出口管制規定,非法將「座標磨床」(jig grinder)輸往俄羅斯,分別遭罰34萬美金及48萬美金。 2.英國籍F氏意圖自美國違法輸出工業微波系統(industrial microwave system)及反無人機系統(counter-drone system)至伊朗,遭判18個月有期徒刑。 3.印第安納大學(Indiana University)的布魯明頓果蠅庫存中心(Bloomington Drosophila Stock Center)向多個國家的研究機構及大學出口含有蓖麻毒素A 亞基轉基因(transgenes of the A subunit of the ricin toxin)的轉基因果蠅,而未申請出口許可,遭停止出口,並須對行政人員進行出口管制教育訓練。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

日本公布設立AI安全研究所與著手訂定AI安全性評鑑標準

日本於2023年12月1日舉辦G7數位技術委員會(G7デジタル・技術大臣会合),由日本數位廳、總務省、經濟產業省共同會晤G7會員國代表,基於人工智慧(Artificial Intelligence,下稱AI)可能帶給全球創造性、革命性的轉變,同時也可能伴隨侵害著作權與擴散假訊息的風險,尤其是生成式AI可能對經濟、社會影響甚鉅,因此針對如何妥善使用AI技術,G7全體會員國共同訂定《廣島AI進程》(広島AIプロセス)文件,其聲明內容簡述如下: 1.訂定涵蓋《廣島AI進程》之政策框架(Framework) 2.訂定涵蓋AI設計、系統開發、規劃、提供與使用等所有與AI有關人員,(All AI actors, when and as applicable, and appropriate, to cover the design, development, deployment, provision and use of advanced AI systems)適用之《廣島AI進程》國際標準(Principle) 3.針對開發高階AI系統之組織,訂定可適用之國際行為準則(Code of Conduct) 為此,日本內閣府於2024年2月14日公布,於經濟產業省政策執行機關—獨立行政法人資訊處理推動機構(独立行政法人情報処理推進機構,下稱IPA)轄下設立日本AI安全研究所(Japan AI Safety Institute,下稱AISI),作為今後研擬AI安全性評鑑標準(據以特定或減少AI整體風險)與推動方式之專責機構,以實現安心、安全以及可信賴之AI為目標。AISI所職掌的業務範圍如下: 1.進行AI安全性評鑑之相關調查 2.研擬AI相關標準 3.研擬安全性評鑑標準與實施方式 4.研擬與各國AI專責機關進行國際合作,例如:美國AI安全研究所(U.S. Artificial Intelligence Safety Institute, USAISI) 另一方面,IPA將以內部人才招聘作為AISI成員之任用方式,預計組成約數十人規模的團隊。日本以與G7會員國共識為基礎,採專責機關—AISI進行研究與規劃,並推動日後擬定AI相關使用規範與安全性評鑑標準,據以實現AI應用安全之目標。我國對於AI技術之應用領域,未來應如何訂定使用安全規範,將涉及專業性與技術性事項之整體性規劃,日本因應AI課題而採行的做法值得我國未來持續關注。

TOP