美國《國際緊急經濟權力法》(International Emergency Economic Powers Act, 50 U.S.C. §1701-1708,下稱IEEPA)是美國總統針對國際經濟局勢,進行多種經濟交易相關限制之法源依據─只要外來任何威脅造成美國家安全、外交政策或者經濟出現隱憂,美國總統即可按IEEPA依職權調查、管制或限制「任何與特定國家的外國匯兌交易、透過金融機構進行任何涉及該國利益的信貸移轉或支付、輸入或輸出外幣或證券;亦可凍結與特定國家或該國人民有關的財產權」。1979年,卡特總統(Jimmy Carter)援引IEEPA因應伊朗人質危機(Iran Hostage Crisis),係迄今最長時間的經濟制裁(sanction);2001年的911空襲事件之後,美國國會大幅擴張IEEPA,同時制裁阿富汗(Blocking Property and Prohibiting Transactions with the Taliban)。近期的中美貿易戰中,IEEPA亦扮演重要角色。舉例而言,2019年5月15日,美國總統川普(Donald Trump)即以IEEPA發布〈行政命令:保護資通訊技術及服務之供應鏈〉(Executive Order on Securing the Information and Communications Technology and Services Supply Chain),並於翌日將華為及其遍布26國的68間子公司列入《出口管制規則》(Export Administration Regulations, EAR)之管制名單。
美國憲法起草時,並無談及緊急權力(emergency powers)之概念,所以在過去的兩個世紀,美國總統僅能個案處理(ad hoc)緊急狀況,國會再後續追認。20世紀以降,美國開始出現緊急權力模式─透過國會立法,將原應由國會代表人民行使的權力(delegated powers)授予總統在緊急狀況下直接行使。復有1976年的《國家緊急法》(National Emergencies Act,下稱NEA),而1977年通過的IEEPA即是依NEA為法源所設。當美國總統行使IEEPA,必須遵守NEA:立即向國會發送緊急命令公告,並且將之發布於聯邦公報(Federal Register),總統亦須闡明其發布該緊急命令所援引之法源依據。《國際緊急經濟權力法》中,公權力對於私經濟的介入,則可溯及第一次世界大戰末期的《1917年對敵貿易法》(Trading with the Enemy Act of 1917),當時出現始料未及的經濟動員(economic mobilization)與制裁。
本文為「經濟部產業技術司科技專案成果」
美國國家標準技術局(the National Institute of Standards and Technology,NIST) 建立網路專頁,提出聯邦各部會所研發技術的移轉計畫報告,揭示各部會具體執行白宮在去(2011)年10月28日所發布的總統備忘錄(Presidential Memorandum),要求各聯邦實驗室進行技術研發並提高移轉給私部門之比例,以使政府投資之研發成果可以供大眾市場所用,以進一步加速經濟成長與提昇美國產業競爭力。 觀察白宮所發布的政策文件指出,聯邦政府將創新技術研發,視為刺激經濟的一個重要工具,而有效的技術移轉又是成功的技術研發的重要驅動力,故歐巴馬政府啟動美國計畫(Startup America Initiative)將政府研發技術的移轉作為重要支柱之一,並預計於5年內達成具體成績。 於NIST網頁公布之13個聯邦部會所提出之執行計畫,包括各機關自訂目標與評量標準,以評估刺激技術移轉計畫之成效。而作為美國產業技術研發與標準制訂之主要推動機構,NIST的技術移轉計畫將調整技術移轉的定義與內涵,俾更為精確地反應和評估廣泛的技術研發活動。未來NIST將擴張各項衡量指標,如標準參考物質和數據(Standard Reference Materials and Data)、專利授權、共同研究等的追蹤範圍,此外包括軟體下載、研究人員、新創公司等亦納入新的衡量指標範圍之內。同時在完善技術移轉活動追蹤機制方面,NIST將建立內部人員參與私部門統一標準制訂委員會之資料庫。 包括NIST在內以及美國商業部與其他各主要進行產業技術研發的聯邦部會之技術移轉計畫,揭示了技術移轉在美國技術研發活動週期中的重要性,具體執行、評估之方式,可自NIST專頁進行下載、分析並作為政策規劃之參考。
數百萬計個人資料遭竊取 引起美國重視資料保護美國接連發生電腦仲介商 ChoicePoint 與 NexisLexis 分別於 2004 年 10 月及 2004 年 4 月電腦遭入侵,數以百萬計的個人資料被竊取之事件,使得個人資料外洩的問題,受到美國國會的強烈關注。此一事件的發生,同時讓大家注意到加州資料庫外洩通知法( SB1386 )對於消費者保護的重要性。 SB13866 法要求持有個人敏感資料的組織、企業,當資料外洩時,需立即通知當事人。 Choice point 此次即是迫於加州州法的規定,於 2005 年 2 月通知了 3 萬 5 千名加州州民關於其個人資料遭受竊取的的消息。 鑑於個人資料保護的重要性,美國國會議員 Charles Schumer ( 紐約州 ) and Bill Nelson ( 佛羅里達州 ) 仿照 SB1386 加州立法,於 2005 年 4 月 12 日舉辦了「 2005 年個人資料保護風險通知義務法案」( Notification of Risk to Personal Data Act of 2005 )的公聽會。草案建議成立聯邦性法律,要求企業或政府,一旦其持有之個人資料遭到竊取,即需通知當事人。本草案同時明訂企業或政府應通知的事項;並擬允許,讓資料遭竊的個人,可於其信用報告中顯示其 7 年內可能遭受詐欺警告的紀錄。 本法案中除了包含 SB1386 的規定外,也對販賣個人敏感資料進行規範,並要求聯邦貿易委員會( Federal Trade Commission )設立相關組織,以協助資料遭竊之被害者。
世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。 包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。 在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。 綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。
德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。 諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。 綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。