2019年7月24日,世界智慧財產權組織(World Intellectual Property Organization, WIPO)、美國康乃爾大學(Cornell University)、歐洲工商管理學院(INSEAD)共同發布「2019年全球創新指數報告」(Global Innovation Index 2019, GII)。GII報告每年度發行一份,希望幫助全球決策者更有效地制定政策及促進創新。本年度的報告主題是「創造健康生活─醫療創新之未來展望」,內容展望創新醫療,包括:導入人工智慧(artificial intelligence, AI)、基因體學(genomics)和健康醫療相關的手機應用程式,將會改變醫療照護。醫療創新無論是在診斷或預後,由於大數據、物聯網(Internet of Things, IoT)和人工智慧等新興科技的興起而改變。伴隨而來的是倫理、社會經濟等多方面、史無前例且迫切的挑戰。報告中提及幾項重要發現:
GII依據80項指標評比129個經濟體,指出,全球創新指數最高的國家排名前五名為:瑞士、瑞典、美國、荷蘭、英國,均為高所得國家。中高所得國家創新指數前三名為:中國、馬來西亞、保加利亞;中低所得國家前三名為:越南、烏克蘭、喬治亞;低所得國家前三名則是:盧安達、塞內加爾、坦尚尼亞。至於區域性的創性領袖國是印度(中亞與南亞)、南非(撒哈拉以南非洲)、智利(拉丁美洲和加勒比海地區)、以色列(北非與西亞)、新加坡(東南亞、東亞與大洋洲)。最頂尖的自然與科技聚落所在國家為:美國、中國、德國;並特別指出巴西、印度、伊朗、俄羅斯、土耳其表現亮眼。最頂尖五大聚落是東京-橫濱(日本)、深圳-香港(中國大陸)、首爾(南韓)、北京(中國大陸)、聖荷西-洛杉磯(美國)。
本文為「經濟部產業技術司科技專案成果」
歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).
歐洲食品管理局發佈「基因改造動物所衍生的食品及飼料與基因改造動物的健康與福利之安全評估」指導文件雖然歐盟未曾批准基因改造動物所衍生的食品與飼料之市場應用。然生物科技發展迅速,許多歐盟境外的國家已發展許多關於基因改造動物科技之應用。是故,歐盟基於此類基因改造動物所衍生的食品與飼料可能對歐洲整體食品安全及環境帶來影響評估,而由歐盟執委會(European Commission, EC)要求歐洲食品管理局(European Food Safety Authority, EFSA)在歐盟第1829/2003 號規章(Regulation EC No 1829/2003)之架構下,發展關於「基因改造動物所衍生的食品及飼料與相關動物的健康與福利,以及對環境影響之安全評估」的綜合性的指導文件(Guidance),預計發布兩份指導性文件,第一份即為此份指導文件,其係針對「基因改造動物所衍生的食品及飼料」以及「基因改造動物的衛生與福利方面」兩方面的風險評估,在歷經2011所進行的公眾諮詢(Public Consultation)後,EFSA於2012年1月26日正式公布。該份指導文件內容並未包含「基因改造動物衍生之食品與飼料」對於環境所產生的影響之評估,EFSA另行制定第二份指導文件做為評估之依循,目前初稿已制定完成,並進行公眾諮詢,而可能於近期發佈。 因畜牧而豢養的動物之健康狀態,向來作為衡量此類農畜食品與飼料的安全之重要指標,本指導文件即以此指標作為整體基本假設。故該指導性文件之發展策略即以傳統飼養的動物健康狀態及其所衍生的食品與飼料作為安全衡量的基底標準(Baseline);並同時發展合適於「基改動物」與「衍生的食品與飼料」,各自的不同比較尺度的評估方法。其評估重點如下: 1.分子特性之評估,係提供針對動物插入一個穩定基因特徵(Trait)的結構描述之資訊之評估; 2.毒性物質之評估,針對基改動物以及衍生之食品與飼料所可能導致生物上改變之影響; 3.新蛋白質的誘發性過敏評估,係針對所有基改動物所衍生的食品所可能導致過敏之評估; 4.營養性評估,係針對所有的基改動物所衍生的食品與飼料對於人類或傳統飼養動的營養評估。 5.針對基改動物衍生的食品與飼料上市後的監測調查(Post-Market Monitoring, PPM),辨識此類基改食品與飼料在上市後可能的潛在之影響 此指導文件另一重點,即對於基因改造動物的健康與福利之評估,這項評估指標之重要性在於: 1.基於動物倫理,即對於動物本身之健康與福利之衡量; 2.動物本身的健康與福利之情形,亦被視為動物衍生產品之安全之重要指標。 綜上,此份指導文件建構出關於申請此類「基因改造動衍生食品與飼料」上市前的安全評估所必須提供的特定資料之內容架構,並結合即將發布的第二份關於環境影響評估的指導文件,做為上市前的綜合安全評估之依循。
瑞士ESG新法規正式生效全球多個國家目前正在促進企業推動「環境、社會和公司治理」(Environment, Social Responsibility, Corporate Governance, ESG)事務,以瑞士為例,有關ESG的新法規於2022年1月1日正式生效。 在2022年1月1日生效的提案中,主要是對《瑞士債法典》(The Swiss Code of Obligations, CO)提出修正,包含「涉及公共利益(public interest)的企業應提出ESG事項報告」與「企業應就有無使用童工及衝突地區的礦物金屬進行盡職調查(Due Diligence)」,分別說明如下: 一、公共利益企業應提出ESG事項報告 依《瑞士債法典》第32章新增的第6節「非財務事項之透明度」(Transparency on Non-Financial Matters)規定,符合條件的上市公司或受監管實體等公共利益企業,每年應提出一份單獨的非財務事項報告,內容須涵蓋環境事項、社會問題、員工相關問題、尊重人權和打擊腐敗等議題,以及公司對該等議題所提出的政策措施、風險評估和實施績效等資訊。此報告經企業內部最高管理層與治理機構批准後,須立即於網路上公開,並確保至少十年內可供公眾存取。 二、企業應就有無使用童工及衝突地區的礦物金屬進行盡職調查 依《瑞士債法典》第32章新增的第8節「與來自受衝突影響地區的礦物金屬以及童工相關的盡職調查和透明度」(Due Diligence and Transparency in relation to Minerals and Metals from Conflict-Affected Areas and Child Labour)規定,所在地、總部或主要營業地點位於瑞士的企業,如在瑞士自由流通或加工來自受衝突影響和高風險地區(conflict-affected and high-risk areas)的特定礦物或金屬,抑或產品或服務被合理懷疑是使用童工製造或提供而成,原則上即須遵守供應鏈中的盡職調查義務,每年亦應將其遵守情況編制成報告。此報告應在會計年度結束後的六個月內於網路上發布,並確保至少十年內可供公眾存取。
歐盟資通安全局發布《物聯網安全準則-安全的物聯網供應鏈》歐盟資通安全局(European Union Agency for Cybersecurity, ENISA)於2020年11月發布《物聯網安全準則-安全的物聯網供應鏈》(Guidelines for Securing the IoT – Secure Supply Chain for IoT),旨在解決IoT供應鏈安全性的相關資安挑戰,幫助IoT設備供應鏈中的所有利害關係人,在構建或評估IoT技術時作出更好的安全決策。 本文件分析IoT供應鏈各個不同階段的重要資安議題,包括概念構想階段、開發階段、生產製造階段、使用階段及退場階段等。概念構想階段對於建立基本安全基礎非常重要,應兼顧實體安全和網路安全。開發階段包含軟體和硬體,生產階段涉及複雜的上下游供應鏈,此二階段因參與者眾多,觸及的資安議題也相當複雜。例如駭客藉由植入惡意程式,進行違背系統預設用途的其他行為;或是因為舊版本的系統無法隨技術的推展進行更新,而產生系統漏洞。於使用階段,開發人員應與使用者緊密合作,持續監督IoT設備使用安全。退場階段則需要安全地處理IoT設備所蒐集的資料,以及考慮電子設備回收可能造成大量汙染的問題。 總體而言,解決IoT資安問題,需要各個利害關係人彼此建立信賴關係,並進一步培養網路安全相關專業知識。在產品設計上則須遵守現有共通的安全性原則,並對產品設計保持透明性,以符合資安要求。