川普簽署行政命令以促進美國AI領域的發展

  美國總統川普於2019年2月11日簽署一項行政命令,發布「美國AI倡議」(American AI Initiative),旨在確保美國在AI領域的領導地位,川普並說道:「美國在AI領域的領導地位對於維護美國的經濟和國家安全至關重要」。「美國AI倡議」從五大方面來促進美國在AI領域的領導地位,包括:

(一) 投資AI的開發

  指示聯邦機構在研發任務及編排預算時,將AI作為優先投資項,確保美國對於AI基礎研發的長遠重視,此外,政府機構並應說明如何將預算用於AI研發開支,以增進對於AI投資的評估。

(二) 數據和資源共享

  將聯邦政府中所擁有的統計數據資料、運算模型及運算資源提供給AI研發人員,促進交通和醫療保健等領域的AI發展。

(三) 建立政府標準及監管

  白宮科技政策辦公室和美國國家與技術研究院(NIST)制定標準,以提升AI系統的「可靠、穩健、值得信賴、安全、可移轉和具協同性」。透過為不同技術和產業的AI制定使用指南,確保AI的使用安全和適當監管。

(四) 人才培訓

  要求各機構為AI進步形成的就業市場變化做好準備,並考慮透過技能培訓課程、獎學金和學徒制度,因應市場人力產生之變化。

(五) 國際參與

  與其他國家制定合作策略,協同AI技術的開發,同時確保AI領域之開發符合和不損及美國人的價值觀和利益。

  此項倡議雖提及許多面向之發展,但仍然缺少發展細節,亦未提及計畫新資金的投入,因此,許多人對此倡議皆提出質疑。曾協助歐巴馬政府制定AI報告的哈佛大學教授Jason Furman即表示,此「倡議」雖令人鼓舞,但僅是邁出第一步,關鍵的考驗將在於是否能以強而有力的方式確實貫徹執行倡議中的內容,此倡議仍欠缺細節及執行面之部分。

相關連結
※ 川普簽署行政命令以促進美國AI領域的發展, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8228&no=55&tp=1 (最後瀏覽日:2026/05/12)
引註此篇文章
你可能還會想看
英國商業、能源及產業策略部提出新版「後2020智慧電表布建計畫」,以助於住家型智慧電表全面布建

  英國商業、能源及產業策略部(Department of Business, Energy and Industrial Strategy,以下簡稱BEIS)於2020年6月18日提出新版「後2020智慧電表布建計畫」(Smart meter policy framework post 2020,以下簡稱旨揭智慧電表計畫),擬於未來4年內全面布建住家型智慧電表,以助於住家型用電戶管理用電並進一步減低碳排放量。   依BEIS預估,布建後有可能助於節省住家型用電戶平均250英鎊之電費,並減少全國4千5百萬噸碳排放量。依旨揭智慧電表計畫,電表布建費用將由售電業負擔,售電業應盡其最大努力布建智慧電表,如售電業並未盡到此一義務,則恐將面臨高額罰鍰。同時,智慧電表之布建可以鼓勵消費者改變用電習慣,如鼓勵消費者於用電離峰時間對於電動載具進行充電,或者是設置(再生能源)發電設備用於用電高峰期間發電、饋電至電網。   從而BEIS旨揭智慧電表計畫,也是為BEIS於2019年1月提出智慧饋電保證(Smart Export Guarantee,以下簡稱SEG)鋪路。於SEG新政策下,BEIS將擬定一套不同於躉購制度之政策框架,使小型生產消費者(prosumer,此處係指可以自行生產電力之用電戶)所生產之綠色電力,可於此一政策框架之保障下,與售電業者議約,並將電力售予售電業者,以減輕英國政府預計於今年3月廢除躉購制度所帶來之衝擊。又依SEG新政策,小型生產性用電戶須設置有智慧電表,始受前開SEG新政策之保證,從而得以優惠之價格或條件將再生能源設備所產生之電力出售予電力供應事業主體。職是故,BEIS旨揭智慧電表計畫,實際上可謂與BEIS於2019年所提出SEG新政策相互搭配,以迎接後躉購制度時代之來臨。   對於智慧電表之硬體規格,依旨揭智慧電表計畫,第二代智慧電表(SMETS2)為其建置之核心。第二代智慧電表與第一代智慧電表不同之處在於,第一代智慧電表係以3G為通訊基礎,且不同電力供應事業主體所使用之系統相互間無法交流、並存,第二代智慧電表則以4G以上規格為通訊基礎,且不同電力供應事業係使用同一套系統。同時,智慧電表應盡量配置有「住家顯示系統」(In-Home Displays),使住戶可以透過視覺化之及時反饋方式,知悉現在住家內之能源使用情形以及相關電價狀況,從而進行改變用電習慣。同時,智慧電表之用電或饋電至電網之資訊,也應可以透過智慧電表傳輸至電力供應事業主體或交易市場,從而使電力供應事業主體可及時知悉用電戶之用電或饋電情形,從而及時做出反應。   對於智慧電表之建置程序以及資訊傳輸、保存安全性上,旨揭智慧電表計畫則要求應符合「智慧電表建置行為準則」(The Smart Meter Installation Code of Practice, SMICoP),從而用電戶可以在此一準則或框架下,對於自己之用電資料享有一定之掌握權限。

歐盟執委會發布指引以因應《人工智慧法》「禁止的人工智慧行為」條文實施

歐盟執委會於2025年2月4日發布「關於禁止的人工智慧行為指引」(Commission Guidelines on Prohibited Artificial Intelligence Practices)(下稱「指引」)」,以因應歐盟《人工智慧法》(AI Act,下稱AIA)第5條關於「禁止的人工智慧行為」之規定。該規定自2月2日起正式實施,惟其內容僅臚列禁止行為而未深入闡釋其內涵,執委會特別制定本指引以避免產生歧義及混淆。 第5條明文禁止使用人工智慧系統進行有害行為,包括:利用潛意識技術或利用特定個人或群體之弱點進行有害操縱或欺騙行為、實施社會評分機制、進行個人犯罪風險預測、執行無特定目標之臉部影像蒐集、進行情緒識別分析、實施生物特徵分類、以及為執法目的而部署即時遠端生物特徵識別系統等。是以,指引就各禁止事項分別闡述其立法理由、禁止行為之具體內涵、構成要件、以及得以豁免適用之特定情形,並示例說明,具體詮釋條文規定。 此外,根據AIA規定,前述禁令僅適用於已在歐盟境內「投放市場」、「投入使用」或「使用」之人工智慧系統,惟對於「使用」一詞,並未予以明確定義。指引中特別闡明「使用」之定義,將其廣義解釋為涵蓋「系統投放市場或投入使用後,在其生命週期任何時刻的使用或部署。」 指引中亦指出,高風險AI系統的特定使用情境亦可能符合第5條的禁止要件,因而構成禁止行為,反之亦然。因此,AIA第5條宜與第6條關於高風險AI系統的規定交互參照應用。 AIA自通過後,如何進行條文內容解釋以及法律遵循義務成為各界持續討論之議題,本指引可提升AIA規範之明確性,有助於該法之落實。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

歐盟科技倫理委員會公布和成生物學ELSI意見

  歐盟科學與新科技倫理委員會(European Group on Ethics in Science and New Technologies, EGE)在今(2009)年11月18日公布合成生物學(Synthetic Biology)公布相關之倫理、法制與社會議題之意見,其中指出合成生物學具有可大幅降低生技藥品生產成本的極大潛力,但也可能帶來的風險,故應予注意。     對很多人來說,合成生物學是一個相當新穎的概念,經濟合作發展組織(Organisation for Economic Co-operation and Development , OECD)在其所公布的2030生物經濟發展議程中,將其列為最具有發展潛力的新興生物技術之一,近來更被歐美先進國家視為生物技術產業的未來重點發展方向。     根據OECD的定義,所謂合成生物學,是以工程方法為基礎,以改進微生物的新興領域,此技術使設計與建構新生物元件(part)、裝置(device)及系統(system),及對於既存的自然生物系統,使其更具有使用性。合成生物學的目的,在於藉由設計細胞系統,使其具備特定功能,從而消除浪費細胞能量之非期待的產物,以增進生物效率。目前合成生物學與市場較為接近的案例,乃一種將青蒿(sweet wormwood herb)、細菌與酵素等基因、分子路徑(molecular pathway)作結合,製造出可以生產治療瘧疾(malaria)的青蒿酸之細菌,此項開發成功突破過去僅能透過植物青蒿獲得,並產量有限的瓶頸。     正由於看好和成生物學的發展潛力,美國、英國與歐盟都開始對此項技術可能帶來的倫理、法制與社會爭議進行評估,歐盟EGE更公布意見以作為未來訂定法規範時的參考。EGE在意見中表示合成生物學使用於能源技術、生物製藥、化學工業或材料科學等都深具前景,故建議歐盟執委會應對此技術發展給予支持,並在歐盟架構計畫下,以產業利用為前提,給予經費的支持;然也必須重視其ELSI問題,包括使用合成生物產品的安全性、對環境的長期影響、惡意使用之防免、專利與公共財的爭議等,為了解決此等問題,其也要求各會員國必須針對合成生物學的各種議題,加強與民眾、利害關係人及社會的對話。由於我國一直將生技產業視為發展重點,合成生物學關係著生技產業未來發展,其未來發展實不容為我國所忽略。

TOP