德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南

  德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南,旨在提升企業數位化與社會責任,並提升消費者權益保護。

  德國司法及消費者保護部次長Gerd Billen於會議中指出,無論技術細節和具體應用如何發展,法律和消費者保護政策應確保人工智慧安全性,且不因此受歧視,以及盡可能確保技術利用透明度。而隨著人工智慧的發展,應設法解決使用人工智慧產生的法律問題。

  例如,如何在製造商,供應商和消費者之間公平分配責任歸屬問題?在家庭,物流和手術室等領域已有越來越多具備自我學習的機器人被應用,相關權利是否會有所不同?如果機器出現不明原因故障,會發生什麼情況及如何處置?當機器透過在製造時尚未完全預定的環境感官認知做出具體決定時,該自動行為所生效力為何?

本份指南則提出六項建議:

  1. 促進企業內部及外部訂定相關準則
  2. 提升產品及服務透明度
  3. 使用相關技術應為全體利益著想
  4. 決策系統的可靠性仍取決資料的準確性。
  5. 重視並解決解決機器偏差問題
  6. 在特別需要負責的決策過程,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。

本文為「經濟部產業技術司科技專案成果」

※ 德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8070&no=64&tp=1 (最後瀏覽日:2025/12/09)
引註此篇文章
你可能還會想看
逐漸式微的「不可避免揭露原則(Inevitable Disclosure Doctrine)」

在2023年,多個美國法院判決拒絕採納「不可避免揭露原則(Inevitable Disclosure Doctrine)」,顯示出該原則將不再是原告於營業秘密訴訟中的一大利器,原告亦無法僅透過證明前員工持有營業秘密資訊且處於競爭狀態,便要求法院禁止該名前員工為其競爭對手工作。 在2023年2月,美國伊利諾伊州北區法院於PetroChoice v. Amherdt一案中指出,法院在適用「不可避免揭露原則」時會遏制競爭對手之間的員工流動,故將評估個案事實並嚴格限制其適用。在2023年6月,美國伊利諾伊州北區法院於Aon PLC v. Alliant Ins. Services一案中指出,根據2016年美國國會所通過的「保護營業秘密法案(Defend Trade Secrets Act, DTSA)」,該法案拒絕了「不可避免揭露原則」的適用,並禁止法院僅憑他人所知悉的資訊,阻礙其尋求新的工作,因此駁回了原告的損害賠償主張。在2023年9月,美國密蘇里州東區法院於MiTek Inc. v. McIntosh一案中同樣拒絕了「不可避免揭露原則」的適用,儘管該州的州法並未明確表達採納或拒絕該原則。 除此之外,美國聯邦法院在去年度的每一份報告意見中(Reported Opinion),皆未顯示出根據「不可避免揭露原則」申請禁令或取得救濟是合理的。換言之,大多數的美國法院都拒絕採納「不可避免揭露原則」或嚴格限制其適用。 綜上所述,儘管「不可避免揭露原則」能有效防止來自前員工不當使用其營業秘密的威脅,但其不再是未來營業秘密訴訟中的勝訴關鍵。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

歐盟執委會發布《歐盟晶片調查報告》提出四點發現以利未來晶片法相關計畫制定

  歐盟執委會(European Commission)於2022年8月2日發布《歐盟晶片調查報告》(European Chips Survey Report,下稱調查報告),調查結果顯示業界至2030年為止,對晶片之需求將倍數成長。調查報告於2022年2月啟動,其目的在收集有關晶片和晶圓(wafer)現行及未來需求的初步資訊,作為了解晶片供應危機對歐盟產業影響的第一步。調查報告總共收到141份來自半導體供需雙方廠商之回饋意見,其中有54.9%來自大型企業、17.3%來自中型企業、19.5%來自小型企業、8.3%來自微型企業。調查報告對上述意見進行分析,以提供來自半導體價值鏈洞察與預測的觀點。   調查報告主要包括以下四點:   (1) 預計2022年至2030年間晶片需求將倍增,未來對領先半導體技術的需求將顯著增加。   (2) 在選擇製造地點時,建立新晶片製造設施的公司將著重合格的勞工及遵循政府法令。   (3) 供應危機影響所有生態系統,預計至少會持續到2024年,迫使企業採取代價較高的緩解措施。   (4) 半導體研發資金主要與供應方相關,但補助計畫(support initiatives)也與需求方相關。   2022年2月8日歐盟執委會提出《歐盟晶片法草案》,旨在處理半導體短缺以及加強歐洲技術領先地位。隨著歐洲半導體專家小組開始研究監控與盤點架構,調查報告的結果可以協助制定《歐盟晶片法草案》與相關計畫。

澳洲於9月初生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government)

2024年9月1日,澳洲生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government,下稱政策)。澳洲數位轉型局(Digital Transformation Agency,以下稱DTA)提出此政策,旨於透過提升透明度、風險評估,增進人民對政府應用AI的信任。 1. AI之定義 此政策採經濟合作暨發展組織(OECD)之定義:AI系統是一種基於機器設備,從系統接收的資訊進而產出預測、建議、決策內容。 2.適用範圍 (1)此政策適用於「所有非企業的聯邦個體(non-Corporate Commonwealth entities, NCE)」,非企業的聯邦個體指在法律、財務上為聯邦政府的一部分,且須向議會負責。此政策亦鼓勵「企業的聯邦實體」適用此政策。 (2)依據2018年國家情報辦公室法(Office of National Intelligence Act 2018)第4條所規定之國家情報體系(national intelligence community, NIC)可以排除適用此政策。 3.適用此政策之機構,須滿足下列2要件 (1)公布透明度聲明 各機構應在政策生效日起的6個月內(即2025年2月28日前)公開發布透明度聲明,概述其應用AI的方式。 (2)提交權責人員(accountable official,下稱AO)名單 各機構應在政策生效日起90天內(即2024年11月30日前)將AO名單提供給DTA。 所謂AO的職責範圍,主要分為: I.AO應制定、調整其機構採取之AI治理機制,並定期審查、控管落實情況,並向DTA回報;鼓勵為所有員工執行AI基礎知識教育訓練,並依業務範圍進行額外培訓,例如:負責採購、開發、訓練及部署AI系統的人員,使機構內的利害關係人知道政策的影響。 II.當既有AI 應用案例被機構評估為高風險AI應用案例時,通知DTA該機構所認定之高風險AI應用案例,資訊應包括:AI的類型;預期的AI應用;該機構得出「高風險」評估的原因;任何敏感性資訊(any sensitivities)。 III.擔任機構內協調AI的聯絡窗口 IV.AO應參與或指派代表參與AI議題之政策一體性會議(whole-of-government forums)。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

美國公民自由聯盟控告兒童線上保護法侵害言論自由

 美國公民自由聯盟(American Civil Liberties Union, ACLU)在挑戰一網際網路審查法案—「兒童線上保護法(Child Online Protection Act, COPA)」的訴訟中獲得勝利。美國公民自由聯盟聲稱,1998年頒布的兒童線上保護法立意雖是為了防止兒童在網際網路上接觸到色情內容,但卻違反了美國憲法,也損害了數以百萬計成年網際網路使用者的言論自由。這個案件被視為對網路言論自由限度的重要檢測指標。 該法案中要求所有商業網站在允許使用者瀏覽那些有害未成年人的內容時,必須以信用卡號碼或其他方式來證明使用者的年紀。此外,在該法案中,那些製造有害未成年人內容的業者每日必須支付最高五萬美元的罰款,以及最多六個月的牢獄之災。美國公民自由聯盟認為,該法案有效杜絕色情網頁的比例甚至不到五成,而最高法院也表示,如可透過像過濾軟體或類似技術來達到防止未成年人接觸網路色情內容的目的,則法律限制的必要性則有待商榷。

TOP