2024年1月24日,歐盟執委會(European Commission)推出了人工智慧創新計畫(AI innovation package),支持新創公司和中小企業開發符合歐盟價值觀的人工智慧。該計畫包含以下重要事項:
1.推動歐洲高效能運算聯盟相關之法規修正案(An amendment of the EuroHPC Regulation)。
(1)歐洲高效能運算聯盟是歐盟在2018年依法(Council Regulation (EU) 2021/1173)建立之組織。依該法內容,組織主要目標是在歐盟開發、部署具有極高運算能力的運算系統,為公部門和私人提供強大的運算和資料服務,以支持科學和工業的雙重轉型。
(2)本次法規修正案為歐洲高效能運算聯盟添加了新目標,新目標為建立人工智慧工廠,以促進歐盟對人工智慧的採用和創新。目標細節包含令歐盟取得、推廣人工智慧專用的超級電腦,建立一站式服務以支持歐盟各界開發人工智慧服務、產品及應用程式等。
2.在歐盟執委會下設立人工智慧辦公室,制定歐洲層級的人工智慧政策,並監督政策執行。
3.透過跨國論壇推動以下工作:
(1)藉歐洲地平線計畫、數位歐洲計畫,向試圖開發、應用人工智慧的組織提供財政支援。預估將在2027年帶來四十億歐元投資額。
(2)過教育擴張人工智慧人才庫。
(3)鼓勵政府及民眾投資人工智慧新創企業。
(4)加速開發歐洲共同資料空間,供人工智慧社群使用。
(5)支持工業生態系統及公共部門應用人工智慧。應用領域包含機器人、健康、生物技術、製造、行動設備等。
4.歐盟執委會與部分成員國組織了兩個歐洲數位基礎設施聯盟如下:
(1)語言科技聯盟(ALT-EDIC): 該聯盟主要工作之一為收集、開發歐洲各國語言模型,供公共部門、企業及未來人工智慧創新計畫使用。聯盟目標為增加歐洲語言資料可用性、維護歐洲語言及文化的多樣性。
(2)城市宇宙聯盟(CitiVERSE EDIC): 主要目標之一是支援城市利用人工智慧,優化各項管理流程。例如交通管理方面,可利用人工智慧模擬空氣品質變化對城市交通狀況的影響,以利政府提出相應解決方案。
目前人工智慧創新計畫的下一步,是先推動歐洲高效能運算聯盟相關之法規修正案。嗣後,透過執行該計畫各項內容,執委會將為歐盟人工智慧政策的實施做好準備。執行該計畫的過程中執委會不僅會支援歐盟各國公共部門採用人工智慧,也會積極推動民間開發、應用人工智慧技術,以提升歐盟競爭力和促進歐盟的永續發展。
美國近期可能開放進口中國大陸將已處理或煮熟的家禽類產品至美國。美國農業部(The U.S. Department of Agriculture)表示中國若將處理過之家禽類產品出口至美國販售,前提是必須遵循美國相關食品進口規範完成妥當的進口申報程序,並且在中國所提出之出口健康認證(export health certificate)中,證明該家禽類產品有確實在適當的溫度等處理過程中進行妥善處理。 美國農業部食品安全及監督服務部門(Food Safety and Inspection Service, 簡稱FSIS)之相關負責官員於2014年6月初在美國國會中國事務執行委員會(Congressional-Executive Commission on China, 簡稱CECC)所舉行的聽證會(hearing)中指出,中國已經將出口健康認證提交給FSIS及動物植物健康監督服務(Animal and Plant Health Inspection Service, 簡稱APHIS)進行審核。在聽證會中,最讓美國負責官員顧慮是否通過開放中國進口家禽類產品之因素在於中國鬆懈的法律規範及其政府的貪汙問題,對於所出具的出口健康認證報告之確實性亦有待考證。美國負責的相關人員建議,中國大陸在產品製造過程的透明度是對於出口健康認證最重要的部分,能夠說服美國相信中國大陸對於食品及藥物安全在管理上的謹慎。 另外一個需要注意的地方在於食品原產地之標示(country-of-origin labeling,簡稱COOL)。在美國食品市場中,若食品大部分的成分來源是在美國境內處理的,則該食品會有「美國產品」(product of U.S.A.)之標示,但對於何謂「美國境內處理的食物」仍沒有明確的標準,對於國外進口美國的產品,在美國經過重新包裝或加工,則依據COOL相關規範,應標示該產品為「美國產品」。因此,在此條件下,若美國允許中國進口經過中國當局出口健康認證的家禽類產品,若進口至美國後,又在美國境內經過重新加工或是包裝,則該食品之COOL將會顯示該食品來自美國,而非出產自中國大陸。這樣的結果恐將會讓美國食品標示出現不完全精確之結果,也會讓消費者開始顧慮其購買的食品來源的顧慮及食品安全的可信度,美國將必須對進口食品的安全管控上建立更嚴謹的規範措施。
英國NCSC針對使用高風險供應商之電信網路提出風險管理建議英國於2020年1月31日正式脫歐,同時積極爭取與重要貿易夥伴美國簽訂自由貿易協定(Free Trade Agreement, FTA)。然而,美國認定中國大陸華為的5G設備存在資安風險,可能被用於間諜活動進而威脅國家安全,故主張美英貿易合作與情報共享的前提,必須建立在英國排除使用華為5G網路基礎建設之上,對此英國嘗試透過政策研擬,在5G經濟發展與國家安全間求取平衡。英國國家網路安全中心(National Cyber Security Centre, NCSC)於2020年1月28日,即針對使用「高風險供應商(High risk vendors簡稱HRV)」之電信網路,提出風險管理建議,說明如何因應HRV帶來的網路安全風險及挑戰(須注意高風險供應商HRV不一定是關鍵供應商Critical Vendor,必須透過關鍵與否及風險高低兩個變動因素加以細部區分)。目前英國5G及光纖到戶(Fiber To The Home, FTTH)計畫推動處於關鍵階段,NCSC向電信營運商提出有關使用HRV設備的非拘束性技術建議,將有助於保護營運商免於外部攻擊,並降低英國電信網路的國家安全風險。 NCSC在報告中,針對何謂高風險供應商,及如何管理這些供應商帶來的特定安全風險,提出詳盡判斷標準包括:供應商在英國及其他地區網路中的戰略地位及規模、對網路安全控管品質及透明度、過去商業行為及慣例、向英國營運商供應技術的穩定性及彈性等。另外供應商有無接受外國政府補貼及營業地點是考量重點:包括該廠商所屬國家政府機構對其施加影響之程度、是否具備攻擊英國網路能力、業務營運的重要組成部分是否受到本國法律監管,進而與英國法律相抵觸甚至進行外部指導等。 又為減少由HRV引起的網路安全風險,NCSC對於HRV控管提出具體建議。包括應限制在5G或FTTP網路核心功能中使用HRV產品及服務,並將高風險廠商供應上限設定為35%,有效進行網路安全風險管理,平衡安全性風險和市場供應多樣化彈性需求。另外,其他具備敏感性的網路營運模式,例如大量個資蒐集、語音系統、記錄備份系統、寬頻遠端接入系統(BNG / BRAS)等,必須根據具體情況,對HRV進行限制;且不得在與政府營運或重要國家基礎設施,及任何與安全系統直接相關的敏感網路中使用HRV設備。目前,中國大陸華為是英國NCSC唯一認定的HRV廠商,華為被禁止參與英國5G網路建設的核心部分且受有市占率35%的供應限制;華為亦需遵守NCSC要求,訂定風險緩解策略,確保產品及服務不致威脅英國網路即國家安全。
基因資訊醫療運用與業務過失 德國向歐盟提交《人工智慧白皮書-歐洲卓越與信任概念》及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》意見德國聯邦政府於2020年6月29日,針對歐盟執委會於2020年2月19日公布的《人工智慧白皮書-歐洲卓越與信任概念》(Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen)及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》(Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung) 提交意見,期能促進以負責任、公益導向、以人為本的人工智慧開發及使用行為,並同時提升歐盟的競爭力及創新能力。 歐盟執委會所發布的人工智慧的白皮書及人工智慧對安全和責任的影響報告,一方面可促進人工智慧使用,另一方面則藉此提醒相關風險。本次意見主要集結德國聯邦經濟與能源部、教育與研究部、勞動與社會事務部、內政、建築及社區部以及司法與消費者保護部之意見。德國政府表示,投資人工智慧為重要計畫之一,可確保未來的創新和競爭力,以及應對諸如COVID-19疫情等危機。最重要的是,可透過人工智慧的應用扶持中小型公司。然而在進行監管時,必須注意應促進技術發展而非抑制創新。 在《人工智會白皮書-歐洲卓越與信任概念》中指出,人工智慧發展應在充分尊重歐盟公民的價值觀和權利的前提下,實現AI的可信賴性和安全發展之政策抉擇,並於整體價值鏈中實現「卓越生態系統」(Ökosystem für Exzellenz),並建立適當獎勵機制,以加速採用AI技術為基礎之解決方案。未來歐洲AI監管框架將創建一個獨特的「信任生態系統」(Ökosystem für Vertrauen),並確保其能遵守歐盟法規,包括保護基本權利和消費者權益,尤其對於在歐盟營運且具有高風險的AI系統更應嚴格遵守。此外,應使公民有信心接受AI,並提供公司和公共組織使用AI進行創新之法律確定性。歐盟執委會將大力支持建立以人為本之AI開發方法,並考慮將AI專家小組制定的道德準則投入試行階段。德國政府指出,除了要制定並遵守歐洲AI的監管政策外,應特別注重保護人民之基本權,例如個人資料與隱私、消費者安全、資料自決權、職業自由、平等待遇等,並呼籲國際間應密切合作,運用人工智慧技術克服疫情、社會和生態永續性等挑戰。另外,德國政府亦支持將人工智慧測試中心與真實實驗室(監理沙盒場域)相結合,以助於加速企業實際運用,也將帶頭促進AI在公部門之運用。 在《人工智慧,物聯網和機器人技術對安全和責任之影響報告》中則指出,歐洲希望成為AI、IoT和機器人技術的領導者,將需要清楚、可預測的法律框架來應對技術的挑戰,包括明確的安全和責任框架,以確保消費者保護及企業合法性。AI、IoT和機器人技術等新數位技術的出現,將對產品安全性和責任方面出現新挑戰,而在當前的產品安全法規上,缺乏相關規範,特別是在一般產品的安全指令,機械指令,無線電設備指令等,未來將以一致地在各框架內針對不同法律進行調修。在責任方面,雖然原則上現有法令尚仍可應對新興技術,但人工智慧規模的的不斷變化和綜合影響,將可能增加對受害者提供賠償的困難度,導致不公平或效率低下的情形產生,為改善此一潛在不確定性,可考慮在歐盟層級調修產品責任指令和國家責任制度,以顧及不同AI應用所帶來的不同風險。德國政府除了支持歐盟作法,在創新與監管取得平衡,更強調應不斷檢視產品安全和產品責任法是否可滿足技術發展,尤其是對重要特定產業的要求,甚至修改舉證責任。並可透過標準化制定,加速人工智慧相關產品與服務的開發。另外,應依照風險高低擬定分類方法,並建議創建高風險AI系統之註冊與事故報告義務,以及相關數據保存、記錄及資料提供之義務,針對低風險AI應用則採自願認證制度。