美國「人工智慧應用管制指引」

  美國白宮科學與技術政策辦公室(The White House’s Office of Science and Technology Policy , OSTP)於2020年1月9日發布「人工智慧應用管制指引」(Guidance for Regulation of Artificial Intelligence Application),為美國政府機關起草人工智慧規範並進行管制時提供指引,該指引內要求各機關之規範應遵循以下10項人工智慧原則:

一.公眾對AI之信任:政府對AI之管制或其他措施應促進AI之可靠性、健全性,且於應用上應具備可信性。

二.公共參與:政府應提供機會讓利害關係人參與AI管制規範立法程序。

三.科學實證與資訊品質:科學實證與資訊品質:政府機關發展AI之相關技術資訊,應透過公開且可驗證之方式提供給大眾參考,以提高大眾對AI之信任與協助政策制定。

四.風險分析與管理:應採取以風險為基礎之分析評估方法,確認哪些風險係可接受之風險,或那些風險代表無法接受之損害或所失利易大於預期利益。

五.利益與成本:政府於擬定相關規範時,應小心評估AI對於整體社會之利益,與預期外之效果。

六.彈性:法規應持續滾動檢視與調修以因應AI之創新應用。

七.公平且無歧視:政府應針對AI之應用與決策,考量公平與無歧視相關議題。

八.揭露與透明:透明度與揭露程序之建立可提升公眾對AI應用之信任。

九.安全:政府應特別注意AI系統內所儲存或傳輸資訊之安全與相關安全維護控制措施。

十.跨機關合作:政府各部會或機構間應相互合作與分享經驗,以確保AI相關政策之一致性與可預測性。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 美國「人工智慧應用管制指引」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8444&no=0&tp=1 (最後瀏覽日:2025/10/07)
引註此篇文章
你可能還會想看
從推動體系及法制架構思考我國文化創意產業發展之整合以南韓推動組織與法制架構為例

「美國疾病控制和預防中心」公布對長照機構之居民施打疫苗之措施

  美國疾病控制和預防中心(Centers for Disease Control and Prevention, CDC)(下稱中心)於2021年3月5日公布長照機構(下稱機構)居民施打新型冠狀病毒(COVID-19)(下稱病毒)疫苗之重要措施。由於機構內人口密集、居民本身已患有疾病,其所面臨死亡的風險比一般人高,因此應重視此類族群的疫苗接種情形。   中心期望透過施打疫苗來降低機構居民可能死於病毒之風險。目前此疫苗已經過多次的臨床試驗,參與臨床試驗之族群也包含65歲以上之長者,多方面確保符合各族群的施打疫苗之安全性,而目前試驗過程中也並未出現嚴重的安全問題,即使出現副作用也多是較輕微症狀,例如施打部位之疼痛、發燒、發冷等症狀,中心認為施打的好處優於副作用,因此中心與美國疫苗接種諮詢委員會(Advisory Committee on Immunization Practices,ACIP)同意對機構居民進行疫苗施打。   由於機構之居住者多為無法獨立自理生活之失能者,需透過機構來提供失能者醫療服務,而居民大多本身就有一些疾病,受感染病毒而造成死亡的機率較大,雖然法律並沒有特別要求應徵得當事人同意才能施打疫苗,但中心認為徵得居民同意,或徵得代表居民做出醫療措施決定之人的同意施打疫苗會比較謹慎,並且在施打前必須說明與解釋疫苗施打的風險,以及依照作業程序將施打紀錄製作於文件中。   中心也正在與多家藥局合作,協助機構對於施打疫苗之居民與家屬進行風險告知與解釋說明施打疫苗之相關知識,除了取得居民之同意並採取紀錄程序外,每位接受施打疫苗之居民或居民之照顧者將會取得疫苗接種紀錄卡,因為某些疫苗需要注射兩次以上才能達到最佳保護,紀錄卡能顯示完整的疫苗施打過程。除此之外,措施規定居民在施打疫苗後必須遵守幾點注意事項: 施打疫苗後必須配戴口罩。 與他人保持至約183公分之距離。 避開人群和通風不良的地方。 勤洗手與消毒。 遵循中心發布之旅行指南。 遵循隔離指導。   有此可知中心期望能透過施打疫苗的方式來降低居民因病毒而受感染死亡之風險,也透過徵得居民書面同意文件的方式,以確保中心與居民之醫療程序保障。

Codex研提進口食品含有未經核准之GMO含量的技術指導原則

  由聯合國農糧組織及世界衛生組織共同成立的The Codex Alimentarius Commission (Codex),刻正研提一份與GMO有關的重要技術指導原則,以協助各國評估並管控進口食品是否含有未經核准的GMO或由未經核准的GMO所製程的風險,藉此降低食品貿易的障礙。   關於未經核准的GMO,目前歐盟採取的零容忍度政策(zero-tolerance policy),亦即,進口之食品或飼料中,絕對不能含有未經核准的GMO或由未經核准的GMO所製程,至於一般所知的歐盟0.9%的GMO標示義務,是適用在經依法核准上市的GMO,若因技術上不可避免的原因而使非基改產品含有此GMO之可容忍界線。   根據Codex調查,許多GMO的上市審查在歐盟受到延宕,但這些GMO在歐盟以外其實很多都已經被其他國家核准,或歐盟的技術審查單位—食品安全管理局(European Food Safety Authority, EFSA)也已提出正面的安全評估意見,但歐盟執委會卻遲遲未完成行政審查,造成在歐盟進口的食品或飼料中若含有這些GMO,即被認定為未經核准而影響產品之進口。   鑑於歐盟的GMO管理與出口國的GMO管理有重大的制度面差異,Codex認為此一制度面的衝突若不尋求解決,未來將越演越烈,影響的作物範圍也會越來越廣,因而Codex才會思考制定相關的技術指導原則,解決某GMO可能在一個或多個國家已經被核准上市,但在進口國還未經核准上市,而進口非基改食品或飼料中卻含有這些GMO的問題,目前Codex預計在2008年7月提出相關的技術指導原則建議。

德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南

  德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現

TOP