本郵件是由系統自動寄送,請勿直接回覆此郵件。《若您看不到此Email訊息,請按此連結顯示》 | |||
![]() |
2025年06月30日 | ![]() |
![]() |
![]() |
|
![]() |
||||
國際科技法制掃描 | ||||
![]() |
||||
![]() |
近期,全球各國積極推動AI與數位科技相關政策,展現對新興科技發展的高度重視。日本內閣於2025年2月底通過《人工智慧相關技術研究開發及活用推進法案》,經產省於3月初發布《資安產業振興戰略》,致力於建構AI發展環境與強化資安產業基礎。同時,歐盟AI辦公室針對通用AI模型提供者義務展開意見徵集,預計於2025年8月發布相關指引;美國加州則透過前沿AI模型政策草案報告,提出八項核心政策原則,為AI發展提供政策方向。在基礎建設方面,國際能源總署(IEA)發布《建設未來電網》報告,因應全球電氣化與再生能源投資趨勢提出建議,確保電網基礎設施能支持未來科技發展需求。近期政策動向顯示,各國積極展現對AI與數位轉型的重視正,並致力於在促進創新與風險管理間取得平衡,確保科技發展能為社會帶來正面效益。科法所將持續關注產業動態,帶來最即時的法制新訊。 |
||||
![]() |
![]() |
||||
![]() |
日本經產省發布《資安產業振興戰略》,強化資安產業與技術基礎日本經濟產業省(簡稱經產省)於2025年3月5日發布《資安產業振興戰略》(サイバーセキュリティ産業振興戦略),目前日本大多使用海外製造的資安產品,且相當重視使用產品的實際體驗,進而導致日本國產資安產品難以銷售獲利,陷入缺乏資金開發投資的惡性循環,為求打破現狀... 詳全文 |
![]() 鄭岱宜 法律研究員 daiyizheng@iii.org.tw |
||
![]() |
![]() |
||||
![]() 周晨蕙 組長 morningchou@iii.org.tw |
日本內閣通過AI研發及活用推進法草案日本內閣於2025年2月28日通過並向國會提出《人工智慧相關技術研究開發及活用推進法案》(人工知能関連技術の研究開発及び活用の推進に関する法律案,以下簡稱日本AI法),旨在兼顧促進創新及風險管理,打造日本成為全球最適合AI研發與應用之國家。規範重點如下:1.明定政府、研究機構、業者與國民之義務:為確保AI開發與應用符合日本AI法第3條所定之基本原則... 詳全文 |
![]() |
||
![]() |
![]() |
||||
![]() |
國際能源總署發布《建設未來電網》報告國際能源總署(International Energy Agency, IEA)於2025年2月25日發布《建設未來電網》(Building the Future Transmission Grid)報告,指出隨電氣化進程加速與再生能源擴大投資,全球電網建設與汰換需求大幅增加。然電網關鍵零件的採購週期較2021年、價格較2019年幾乎增長一倍,使電網建設與汰換難以跟上需求成長... 詳全文 |
![]() 李霽恆 副法律研究員 chihenglee@iii.org.tw |
||
![]() |
![]() |
||||
![]() 劉心妍 副法律研究員 hyliu@iii.org.tw |
歐盟AI辦公室針對通用AI模型提供者義務之相關事項進行意見徵集,以協助制訂《通用AI模型提供者義務規範指引》,預計2025年8月發布該指引歐盟執行委員會(European Commission)轄下之AI辦公室(AI Office)於2025年4月22日發布徵詢通知,將就通用AI(General-Purpose AI, GPAI)模型提供者之法規遵循義務、範疇等事項進行公眾意見徵詢,徵詢期間至2025年5月22日止。預計於2025年8月發布《釐清通用AI模型提供者義務範疇指引》(Guidelines to Clarify the Scope of the Obligations of Providers of General-Purpose AI Models in the AI Act)(下稱指引),並將與《通用AI實務守則》(General-Purpose AI Code of Practice)一同發布。 該指引係為協助GPAI模型提供者遵循歐盟《人工智慧法》(Artificial Intelligence Act, AIA)相關規範,確保其營運符合透明度、安全性與可信賴性要求。指引架構預計涵蓋七大核心面向: (1)通用AI模型之定義範疇與判斷標準; 此外,執委會將另行發布與通用AI模型訓練內容運用相關之指引,協助提供者履行AI Act第53條第1項第d款通用AI模型提供者之義務。 該指引亦將與《通用AI實務守則》相輔相成,共同構築完整之法規遵循框架。實務守則將詳述提供者係如何落實AI Act第53條之技術文件紀錄、訓練資料透明度、向下游業者提供資訊等相關義務;另亦說明具系統性風險(Systemic Risk)算力較高之通用AI模型(即浮點運算能力(FLOPS)超過1025)如何依據第55條規定建立風險評估與緩解措施。該指導方針雖不具法律拘束力,惟其代表歐盟執委會作為監督執法機關對於相關規範之解釋立場,將隨科技發展進程適時更新。歐盟AI辦公室將透過此等規範,促進AI創新發展,同時確保消費者與中小企業對此新興科技之信賴。 |
![]() |
||
![]() |
![]() |
||||
![]() |
加州政策工作小組發布「前沿人工智慧模型政策工作小組草案報告」由加州州長召集組成的「加州前沿人工智慧模型政策工作小組」(Joint California Policy Working Group on AI Frontier Models)於2025年3月18日發布「前沿人工智慧模型政策工作小組草案報告」(Draft Report of the Joint California Policy Working Group on AI Frontier Models),該報告公開徵詢意見至2025年4月8日,最終報告預計於2025年6月完成。 本工作小組是由加州州長於2024年9月邀集三位學者專家組成,本次報告並未提出具體法案建議,而是採取以實證研究與全面政策分析方法為基礎的AI政策架構,作為回應前沿人工智慧(Frontier AI)潛在風險並規劃政策方向的重要參考。報告將前沿人工智慧模型(Frontier AI Models)界定為具備高度能力、潛在社會影響力甚鉅,且開發過程極為資源密集的大型基礎模型(Foundation Models)。 報告強調政策應兼顧創新推動與風險控管,並提出八項核心政策原則,包含:效益與風險的平衡、實證導向政策制定、初期設計影響未來發展、提供政策誘因、提升透明度與建立問責制度、保障吹哨者與第三方揭露、建立不利事件通報機制及設計彈性門檻與規範範圍。 首先,報告指出,目前AI開發產業普遍缺乏對訓練資料、風險緩解措施與下游應用影響的揭露機制。因此,報告主張應提升開發者在資料取得方式、安全機制、模型能力評估與實際使用情境等方面的資訊透明度,並建立第三方稽核制度,以補足現行監督機制不足,作為未來政策規劃的重要參考依據。再者,報告支持建立第三方模型風險評估機制,並建議對進行公共利益導向安全測試的獨立研究者提供保護制度。此舉可避免其因違反平台使用條款而面臨限制或法律追訴,同時強調應保障內部吹哨者揭露企業內部潛在風險行為。報告呼籲政府應參照資安領域內「安全港」(Safe Harbor)制度,分別為從事善意測試的第三方研究者與內部告警者提供明確的法律免責與通報保護機制。此外,報告建議建立AI不利事件(adverse events)通報制度,並借鏡藥物、航空與資安等領域的跨部門通報機制。另指出,現行AI以訓練每秒浮點運算次數(Floating-point operations per second, FLOP)為準的制度,應搭配模型能力、部署影響、使用者人數等其他指標,以多元門檻架構區分治理強度,建議應建立科學小組評估新興高風險模型,避免風險指標滯後。 最後,此報告認為因應AI快速發展所帶來的政策挑戰,不必然須仰賴AI專法或新設監管機關,現行法規與監管架構即可作為初步因應的依據。工作小組建議可由具備領域專責權限的既有主管機關負責風險處理與資訊接收,然而通報制度應具備彈性調整空間,能隨著實務運作經驗與風險型態的變化進行滾動式調整。 |
![]() 江佩玹 副法律研究員 carajiang@iii.org.tw |
||
![]() |
![]() |
![]() |
||||
![]() |
![]() |
![]() |
![]() |
![]() |