歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).
歐盟數位經濟公平稅負指令草案無共識,法國與奧地利將先行交付立法2018年3月21日,歐盟執行委員會(European Commission)發布數位經濟公平課稅(Fair Taxation of the Digital Economy)指令草案,指出在數位經濟模式中,由於創造利益的用戶資料地並不受限於營業處所,因此銷售貨物與提供勞務之增值發生地,與納稅主體之納稅地點分離,而無法為現行來源地原則所評價,嚴重侵蝕歐盟境內稅基。對此,該草案分別提出了數位稅(Digital Tax)與顯著數位化存在(Significant Digital Presence)兩份提案,用以針對特定數位服務利潤制定共同性數位稅制,以確保數位服務業者與傳統的實體公司立於平等的市場競爭地位。 值得關注的是,該草案之長遠解決提案以「顯著數位化存在」(Significant Digital Presence)修正國際間課稅權歸屬之重要人事(Significant People function)功能判斷,並認為建立利潤分配原則時,應參考經濟合作暨發展組織(Organization for Economic Cooperation and Development)稅基侵蝕與利潤移轉(BEPS,Base Erosion and Profit Shifting)行動計劃中DEMPE模式(Development Enhancement Maintenance Protection Exploitation function),決定獲利之分配,作為未來增值利益的認定。 然而不少持反對意見的國家認為,數位經濟只是傳統公司面對數位化,利用無形資產的商業模式改變而已,而此種新興模式並不足以作為開徵數位稅收新稅種。縱使數位經濟下無形資產產生之價值必須重新界定,現行稅收歸屬與國際間租稅協定本身並無不妥,而應強調各國稅捐機關之租稅資訊之合作。愛爾蘭已與捷克共和國、芬蘭、瑞典發表反對聲明,表示數位經濟課稅的方案不應背離BEPS行動計畫之期中報告,並應考慮到國際間因租稅引起的貿易戰爭,以及避免對數位經濟的扼殺。對此,歐盟監管審查委員會(Regulatory scrutiny Board)亦認為,草案並未針對數位稅的有效稅率進行量化分析,嚴重忽略了數位稅對於區域內經濟的衝擊。 由於未能獲得歐盟會員國的共識,法國為了回應黃背心運動(Mouvement des gilets jaunes)的要求, 12月17日法國財政部長已公開表示2019年3月前,將自行針對數位廣告所得與數位資料所得稅收法案送交國內立法程序,該法案將直接以境內網路社群利潤推估大型數位企業之應稅所得,並支持「顯著數位化存在」的認定原則。同時奧地利財政部長也表示,會跟進數位稅收的立法並於2019年1月底公布稅收草案。
日本於2018年7月25日發布關鍵基礎設施資訊安全對策第4次行動計畫修正版日本內閣網路安全中心(内閣サイバーセキュリティセンター)於2018年7月25日發布關鍵基礎設施資訊安全策略第4次行動計畫修正版。此次修正重點,係將「機場(空港)」新增為關鍵基礎設施領域,其目的在於確保機場安全、提供機場乘客與相關人員快速且正確的資訊、避免飛機行李的檢查與運送停止或延遲。 而確保「機場」資安的關鍵基礎設施事故報告與服務維持的指南,則為2018年4月1日發布之「確保機場資訊安全的安全指南第1版(空港分野における情報セキュリティ確保に係る安全ガイドライン第1版)」。 該確保機場資訊安全的安全指南,係參考日本於2015年5月發布之關鍵基礎設施資訊安全對策優先順位參考指南(重要インフラにおける情報セキュリティ対策の優先順位付けに係る手引書第1版)制定,以規劃(Plan)—執行(Do)—查核(Check)—行動(Action)的觀點建立管理與應變對策,將IT障礙分為故意(接收可疑的郵件、內部員工的故意行為、偽造使用者ID、DDos攻擊、非法取得資訊等)、偶發(使用者操作錯誤、使用者管理錯誤、外部受託方的管理錯誤、機器故障、執行可疑的檔案、閱覽可疑的網站、系統的脆弱性、受到其他關鍵基礎設施事故的波及)、環境(災害、疾病)等三大原因,並訂定日本主要的機場與機場大樓業者的責任範圍、適用的個資保護制度、IT安全評估與認證制度、資安稽核制度、資安管理政策及資安控制措施的建議事項。
全球四大晶片業者共同研發奈米蝕刻技術世界四大電腦晶片業者決定與紐約州合作,在今後五年內出資 5.8億美元,研究發展下一代電腦微晶片製造技術。紐約州預定出資1.8億美元,美國IBM、超微半導體(AMD)、美光科技(Micron)與德國英飛凌預定各出五千萬美元的現金與設備,另2億美元由多家提供物料與設備的廠商提供。惟世界最大晶片廠商英特爾(Intel)並未參與此計畫,英特爾目前在x86微處理器市場中,占有銷售量的80%、銷售額的90%。 此國際奈米蝕刻事業( International Venture for Nanolithography, INVENT)計畫的基地,預定設在奧伯尼紐約州立大學奈米科學與工程學院,預期共有500多位研究人員、工程師與其他人員,投入此計畫。 奈米科技是研究分子與原子級的科學,此一計畫研究重心是利用光線,蝕刻大約頭髮直徑十萬分之一大小的電路,讓參與公司及早取得與學習應用研究出來的蝕刻工具。由於近年半導體速度與複雜性快速提高,晶片業者製造更小、更快晶片的難度增加,研究發展成本飛躍上升,業界體認到必須合作,才能負擔。一具蝕刻工具成本可能高達 2500萬美元,蝕刻工具進步攸關晶片廠商繼續縮小晶片規模,使每個晶片具有更多運算與儲存能力。目前生產的最先進晶片運用90奈米科技,晶片廠商希望從2006或2007年起,生產65奈米晶片。