川普簽署行政命令以促進美國AI領域的發展

  美國總統川普於2019年2月11日簽署一項行政命令,發布「美國AI倡議」(American AI Initiative),旨在確保美國在AI領域的領導地位,川普並說道:「美國在AI領域的領導地位對於維護美國的經濟和國家安全至關重要」。「美國AI倡議」從五大方面來促進美國在AI領域的領導地位,包括:

(一) 投資AI的開發

  指示聯邦機構在研發任務及編排預算時,將AI作為優先投資項,確保美國對於AI基礎研發的長遠重視,此外,政府機構並應說明如何將預算用於AI研發開支,以增進對於AI投資的評估。

(二) 數據和資源共享

  將聯邦政府中所擁有的統計數據資料、運算模型及運算資源提供給AI研發人員,促進交通和醫療保健等領域的AI發展。

(三) 建立政府標準及監管

  白宮科技政策辦公室和美國國家與技術研究院(NIST)制定標準,以提升AI系統的「可靠、穩健、值得信賴、安全、可移轉和具協同性」。透過為不同技術和產業的AI制定使用指南,確保AI的使用安全和適當監管。

(四) 人才培訓

  要求各機構為AI進步形成的就業市場變化做好準備,並考慮透過技能培訓課程、獎學金和學徒制度,因應市場人力產生之變化。

(五) 國際參與

  與其他國家制定合作策略,協同AI技術的開發,同時確保AI領域之開發符合和不損及美國人的價值觀和利益。

  此項倡議雖提及許多面向之發展,但仍然缺少發展細節,亦未提及計畫新資金的投入,因此,許多人對此倡議皆提出質疑。曾協助歐巴馬政府制定AI報告的哈佛大學教授Jason Furman即表示,此「倡議」雖令人鼓舞,但僅是邁出第一步,關鍵的考驗將在於是否能以強而有力的方式確實貫徹執行倡議中的內容,此倡議仍欠缺細節及執行面之部分。

相關連結
※ 川普簽署行政命令以促進美國AI領域的發展, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8228&no=64&tp=1 (最後瀏覽日:2026/04/16)
引註此篇文章
你可能還會想看
新加坡推《網路安全法案》:強化網路保護、賦權受害者、要求平台揭露加害者身分

面對網路騷擾、私密影像濫用及假訊息快速擴散等現象持續上升,新加坡政府於10月15日正式提出《網路安全(救濟與問責)法案》(Online Safety (Relief and Accountability) Bill,簡稱 OSRA),旨在提供受害者更迅速、更具效力的救濟手段,並強化平台與加害者的法律責任。該法案在16日完成國會一讀,預計於2026年上半年正式設立「網路安全委員會」(Online Safety Commission, OSC)。 政府指出,隨著民眾日常高度依賴網路,各類線上侵害行為不斷增加。根據政府的數位化調查,有84%的受訪者曾接觸有害內容,另有三分之一在過去一年曾遭遇實質的網路不法行為。其類型包括性與暴力內容、網路霸凌、種族與宗教衝突言論等。非營利組織SG Her Empowerment的研究更指出,多數受害者因平台處理無效、加害者匿名、外界輕忽其傷害而感到無助,甚至減少自身在網路上的公共參與。 OSRA的核心是建立網路安全委員會(Online Safety Commission, OSC),作為受害者的專責申訴與救濟窗口。受害者在多數案件中須先向平台申訴;若平台未能妥善處理,即可向OSC報告。但針對私密影像濫用、兒童影像濫用與人肉搜索(doxxing)等急迫性高的侵害,可直接向OSC求助。OSC在確認侵害後,將可發布多類命令,包括要求加害者停止傳播內容、限制其帳號,或命令平台移除貼文、封鎖群組、降低特定內容觸及率等。若平台拒不配合,OSC 還可指示ISP阻擋特定網站,或要求App Store下架相關應用程式。 依據法案與附件內容,新加坡將線上侵害行為分為13類,並分階段實施,包含: 1. 網路騷擾(含性騷擾) 2. 人肉搜索 3. 網路跟蹤 4. 私密影像濫用 5. 兒少影像濫用 6. 網路冒名 7. 不實或合成素材濫用 8. 煽動傷害 9. 煽動暴力 最嚴重且高發生率的前5類,包括預計2026年上半年優先落地,前9類行為將隨後實施,構成法定侵權行為(statutory torts),受害者可據此向法院請求損害賠償或禁制令。 因應匿名性造成追查困難,法案也賦予OSC要求平台提供加害者身分資訊的權限,即OSC得要求平台提供其所持有之、涉嫌造成線上危害之終端使用者身分資訊。受害者在OSC認定遭受侵害後,也可申請揭露資訊以利提起侵權訴訟,但揭露資料若被濫用將構成刑事犯罪。政府表示,OSRA的制定歷經多場閉門會議與公開諮詢並獲得廣泛支持,將補強現行刑事與行政法規,為受害者提供更完整的救濟體系。法案預計在下次國會會期進行二讀審議。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

韓國公布「數位平台政府實施計畫」

2023年4月韓國政府公布「數位平台政府(디지털플랫폼정부위원회,Digital Platform Government)實施計畫」,促使政府全面結合人工智慧和資料運用,打破過往部會機關個別發展數位專業的阻隔,為國民提供數位化整合的政府服務,並鼓勵企業創新。 「數位平台政府」為2022年新任總統尹錫悅推行的政府改革措施之一,同年7月頒定組織條例,成立直屬於總統之「數位平台政府委員會」,委任財政、科學、行政及個資保護4部會首長及19位專家組成。數位平台政府實施計畫預計2027年完成,計畫訂出4項數位平台政府關鍵服務任務,任務目標與對應措施如下: (1)政府為人民服務:建立政府綜合服務窗口,統整中央、地方各級單位之千餘種稅捐、福利等內容,提供如「青年政策整合」之個性化便利服務,以減少人民不便與潛在社會問題。 (2)智慧的一體式政府:擴大機構間資料的共享與利用,打破部會之間、中央和地方政府之間的資料孤島情形,目標串連1.7萬餘的政府系統,成為政府創新基礎設施,以靈活應對快速變化的外部環境。 (3)公私協力的成長平台:打造數位經濟生態系,以交通、安全、能源和城市為初步建置領域,後續擴展到醫療、環境和公共管理等,預計培養1萬家基於此生態系經營的SaaS(Software as a Service,軟體即服務)公司。 (4)可信賴的平台政府:加強人民對個人資料的控制權,將於數位政府平台中引入資料近用記錄檢查和管理功能,並採用「零信任」、「供應鏈安全」等機制提高安全性。

自日本產業競爭力強化法暨特區立法談監理沙盒立法之推動與課題

TOP