歐盟執委會於2020年4月7日發起ERA vs CORONA行動計畫,透過歐洲研究區(European Research Area, ERA)全力支持歐洲科研合作、共享科學資訊,並給予歐洲研究團隊與企業充足的研發疫苗資金,用以對抗COVID-19。歐盟執委會已與各國達成共識,確認ERA vs CORONA行動計畫的10項優先行動:
本文為「經濟部產業技術司科技專案成果」
日本內閣為實現「Super City」的構想,於2020年2月4日通過《國家戰略特別區域法》部分條文修正案並提交國會審議,擬透過自駕車、無人機物流、遠距醫療等結合社區總體營造,以因應高齡化社會和解決人力不足等課題為目標。 「Super City」係指充分活用第四次工業革命中,人工智慧及大數據等各項最先進技術,領先實現未來生活方式的「完全的未來都市」。不僅在複數領域的智慧化措施中導入管制革新,同時也於生活中實踐,旨在解決社會中的各項課題。「Super City」可說是較早推動的「Smart City」進化版。Smart City具體推動範圍侷限於能源、交通等個別領域的尖端技術實證,而Super City則是以未來都市的整體創建為目標。即Super City的推動至少會同時涵蓋5個領域以上的生活中各項智慧科技,如物流、支付、行政、醫護、教育、環境、防災等;不僅有技術上的實證,更看重先行於未來社會的生活中實現;最重要的是會從居民的角度,而非從技術開發端、供給端,來追求理想的未來社會。 不過現行法規對於Super City的實現是有所侷限的,目前日本雖可依《國家戰略特別區域法》,由國家指定特定地區並實施管制鬆綁、制度改革等特例措施,但在推動管制革新以執行各種近未來技術之實證方面,尚需個別與相關主管機關協商,因此經常耗費數月至數年的時間成本。本次修法將強化各相關主管機關的合作,將制定基本方針明定具體的合作程序,而城市間的合作強化則將會整備開放API(Open Application Programming. Interface)規則及法規;另外Super City的實現需要蒐集、整理各領域之資料,因此擬將「資料協作基盤整備事業」列為法定計畫,且事業實施主體可要求國家及地方政府提供其所擁有的資料;由於Super City的推動將會同時涵蓋多個不同領域,為使各領域的管制革新具整體性且能同時實現,修正案中也規範Super City事業計畫的認定程序。
英國推出《藥品和醫療器材法》草案英國政府於2020年2月13日發布了《藥品和醫療器材法》(Medicines and Medical Devices Bill)草案。根據英國國民保健署(NHS)的聲明,新法草案修改以及補充了現有的英國藥品、醫療器材、臨床試驗監管框架,確保英國能夠開發具有開拓性的醫療技術。 本次草案的提出原因之一為英國計劃自2020年12月31日起退出歐盟,過去英國藥品與醫療器材法律乃援引歐盟相關指令與規則(例如:歐盟醫療器材法規,Medical Device Regulation, (EU) 2017/745),一旦脫歐過渡期結束,英國將無法再透過1972年《歐洲共同體法》(ECA 1972)援用歐盟的規定來規範與更新藥品、醫療器材與臨床試驗法律。 本次法案另有幾項新增重點: 醫療器材主管機關英國藥品和醫療產品監管署(Medicines and Healthcare Products Regulatory Agency)成為唯一有權簽發執行通知書(enforcement notices)的機關。 草案第23條明確指出哪些違反英國《2002年醫療器材法規》(Medical Devices Regulations 2002)的行為可能導致刑事犯罪。 草案第26條針對違反英國《2002年醫療器材法規》的人有新的民事制裁(civil sanctions)規範框架。例如在本法草案附表1(Schedule 1)中提及將賦予內閣大臣權力,得對違反《2002年醫療器材法規》之個人處以罰款(monetary penalty)。 草案第34條賦予內閣大臣權力向公眾分享有關醫療器材的資訊,例如受個資法保護或屬商業機密的醫療器材安全的資訊。 目前法案草案在國會二讀階段。
歐盟執委會啟動《關於標示與標籤AI生成內容之行為準則》之相關工作,以協助生成式AI之提供者與部署者履行其透明度義務2025年11月5日,歐盟執委會啟動《標示與標籤人工智慧生成內容之行為準則》(a code of practice on marking and labelling AI-generated content,下稱行為準則)之相關工作,預計將於2026年5月至6月間發布行為準則。此行為準則與《歐盟人工智慧法案》(EU AI Act)之透明度義務規定相關。這些規定旨於透過促進對資訊生態系的信任,降低虛假訊息、詐欺等風險。 《歐盟人工智慧法案》第50條第2項及第4項之透明度義務,分別規定 1. 「『提供』生成音檔、圖像、影片或文本內容的AI系統(包括通用AI系統)」的提供者(Providers),應確保其輸出係以機器可讀的形式標示(marked),且可被識別屬於AI所生成或竄改(manipulated)的內容。 2. 「『使用』AI系統生成或竄改以構成深度偽造之影像、音訊或影片內容」的部署者(Deployers),應揭露該內容係AI所生成或竄改。 前述透明度義務預計於2026年8月生效。 後續由歐盟AI辦公室之獨立專家透過公眾資訊與徵選利害關係人意見等方式,推動起草行為準則。此行為準則不具強制性,旨於協助AI系統提供者更有效地履行其透明度義務,且可協助使用深偽技術或AI生成內容的使用者清楚地揭露其內容涉及AI參與,尤其是當向公眾通報公共利益相關事項時。 AI應用蓬勃發展,同時AI也可能生成錯誤、虛構的內容,實務上難以憑藉個人的學識經驗區分AI幻覺。前文提及透過標示AI生成的內容,以避免假訊息孳生。倘企業在資料源頭以標示等手段控管其所使用之AI的訓練資料,確保資料來源真實可信,將有助於AI句句有理、正向影響企業決策。企業可以參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,從資料源頭強化數位資料生命週期之管理。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)