Spitzencluster-Wettbewerb由德國聯邦教育與科學部(Bundesministerium für Bildung und Forschung,BMBF)自2007年起開始推行,屬該國高科技戰略2020(hightech-strategie 2020)之政策配套措施之一,更是歐盟發展歐洲研發區位計畫(European Research Area)之一環。所謂聚落係建立在德國傳統工業區位分布上,利用群聚效應因應產業技術發展的複雜問題(產業問題非單一技術可解決),使各具專長之學研機構與企業共同分享產業問題研議出解決方案,分擔研發風險與成本等,增強合作效率,促進產業創新及升級。聚落多以成立協會(association)為主,平均每一聚落有近70個企業參與,原則上開放跨國參與者參與聚落之產學合作,並對會員收取會費。
本計畫作為重要的區域產學研合作計畫,乃承襲自德國過去不斷推動的區域產學研合作計畫,其特色是採取競爭方式選出德國境內優秀之聚落,並補助其相關研發計畫。自2007年至2015年間,已有三次選拔,並選出共15個領先聚落,分別涉及領域橫跨航太、資通訊、能源、生技等技術發展。至2015年為止總計已補助超過1300個計畫。2015-2017年將規劃有三次選拔,每回合挑選至多10個聚落獲得補助。目前本計畫已補助3.6億歐元預算,至2017年底將再投入5億歐元預算。
本文為「經濟部產業技術司科技專案成果」
歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).
日本經產省公布「伊藤報告3.0版」和「價值協創指南2.0版」,強調企業永續發展重要性日本經濟產業省於2022年8月31日公布「伊藤報告3.0版」(伊藤レポート3.0)和「為協力創造價值之綜合揭露、對話指南2.0版」(価値協創のための統合的開示・対話ガイダンス2.0,簡稱價值協創指南),強調企業永續轉型重要性。所謂永續轉型,係指社會永續發展與企業永續發展必須「同步」,及企業為此需要在經營面和產業面進行之改革。 「伊藤報告3.0版」整理企業推動永續轉型應採取之措施,包括必須根據社會永續性擘畫未來方向,並制定可實現長期價值之企業戰略、關鍵績效指標(Key Performance Indicators, KPI)、治理目標等。此外,伊藤報告也指出供應鏈全體(包含中堅、中小企業和新創企業等)和投資鏈上之參與者,都需要推動企業永續轉型。 為強化企業經營以實現永續轉型,經濟產業省同步修正「價值協創指南2.0版」,調整企業資訊揭露及對話方式,讓過程可以更有效率及建設性。指南修正重點包括:(1)全部項目都強調為實現永續社會,企業長期且持續提供價值的重要性及因應方向;(2)新設長期戰略項目;(3)確保「氣候相關財務揭露(Task Force on Climate-related Financial Disclosures, TCFD)」所提出之治理、戰略、風險管理、指標與目標之揭露架構與整合性;(4)於項目「實施戰略(中期經營戰略等)」中,強調人才戰略和人才投資重要性;(5)新設實質對話、約定項目。
日本經產省和總務省共同發布AI業者指引草案,公開徵集意見因應生成式AI(Generative AI)快速發展,日本經產省和總務省彙整及更新自2017年起陸續發布之各項AI指引,於2024年1月19日共同公布「AI業者指引草案」(AI事業者ガイドライン案,以下簡稱指引),公開向民眾徵集意見。上述草案除提出AI業者應遵守以人為本、安全性、公平性、隱私保護、透明性、問責性、公平競爭、創新等共通性原則外,並進一步針對AI開發者(AI Developer)、AI提供者(AI Provider)及AI利用者(AI Business User)提出具體注意事項,簡述如下: (1)AI開發者:研發AI系統之業者。由於在開發階段設計或變更AI模型將影響後續使用,故指引認為開發者應事先採取可能對策,並在倫理和風險之間進行權衡,避免因重視正確性而侵害隱私或公平性,或因過度在意隱私保護而影響透明性。此外,開發者應盡量保留紀錄,以便於預期外事故發生時可以進行說明。 (2)AI提供者:向AI使用者或非業務上使用者提供AI系統、產品或服務之業者。提供者應以系統順利運作及正常使用為前提,提供AI系統和服務,並避免侵害利害關係人之利益。 (3)AI使用者:基於商業活動使用AI系統或服務之業者。使用者應於提供者所設定之範圍內使用AI,以最大限度發揮AI效益,提高業務效率及生產力。