澳洲產業、科學、能源及資源部(Department of Industry, Science, Energy and Resources)於2020年5月15日舉行全國數位經濟與科技會議,並於會後發表「2020年5月全國數位經濟與科技會議會後聲明」。本次會議由澳洲產業科學能源及資源部部長擔任主席,邀集各州、領地地方政府的創新或科技部門首長,以視訊方式研商COVID-19疫情後如何整合澳洲企業的數位能量,並使澳洲在2030年成為全球數位經濟的領先者。
聲明中首先肯定澳洲數以萬計的企業在面對COVID-19疫情時所展現的危機應對能力與提出各式數位科技解決方案,用以支持員工、服務消費者、提出資源供應的替代方案、溝通利害關係人等,有效地提升了營運與財務上的效率。而政府則藉由提供各式財務、社會保險與稅務上的支援措施,並持續針對個別情況規劃最適的支援方案。
聲明指出根據研究,數位工具將能協助小型企業每週節省約10小時的工時,並提升約27%的營收;若乘上澳洲全國小型企業的總數,等於每週可省下約2200萬小時的工時,並可年增約3850億元的營收。企業在疫情期間所採取的數位科技解決方案是未來推動營運模式數位轉型的契機,因此在疫情後整合澳洲官方與民間的數位能量,將是疫情後經濟復甦與未來經濟成長的關鍵。
聲明指出與會聯邦及地方政府相關首長已達成共識,將組成「數位經濟與科技資深官員小組」(Digital Economy and Technology Senior Officials Group),專責整合聯邦政府與地方政府的數位政策。本小組將提出數位經濟政策與企業所需的支援措施,用以加速數位轉型與COVID-19疫情後的經濟復甦,包含完成人工智慧及自主系統能力地圖(Artificial Intelligence and Autonomous Systems Capability Map),來找出尚待強化的能力與可加強合作的契機。
此外本小組將合作推動數位與資通安全工作、關鍵技術法規鬆綁,以協助減少企業法遵障礙並支持數位經濟成長。COVID-19疫情下揭示澳洲推動數位轉型的重要性,期許本小組能有效整合數位能量並填補數位落差,未來將每年召開三次全國數位經濟與科技會議,追蹤澳洲數位經濟與科技生態系的推動情形,並聽取資深官員小組的定期工作報告。
本文為「經濟部產業技術司科技專案成果」
韓國政府於2025年1月23日成立國家生技委員會(국가바이오위원회),作為跨部會最高決策機構,整合生技、醫療、食品、能源、環境等領域政策。該委員會將推動《大韓民國生技大轉型戰略》(대한민국 바이오 대전환 전략),聚焦基礎建設、研發創新、產業發展三大轉型,重點分述如下: 1. 基礎建設轉型:韓國將成立「生技聚落協調機構」(바이오 클러스터 협의체),整合20多個生技聚落,讓各聚落共享設備、專家及創業支援,並與全球頂尖生技聚落交流。韓國計畫創造1萬個生技相關就業機會、培育11萬名生技專業人才,並推動生技監管創新。 2. 研發創新轉型:韓國期望透過AI技術應用,將新藥開發的時間與成本減半。此外,政府將提供資料共享的獎勵措施,簡化IRB及DRB審查流程,推動資料導向的生技研發。韓國計畫至2035年在國家生技資料平台上累積1000萬筆生技資料,並建構高效能運算基礎設施以提升分析能力。 3. 產業發展轉型:韓國將透過五個公共CDMO支援生技產業技術產品化,並推動AI導向的「K-BioMADE計畫」,促進生技製造的高速化、標準化與自動化。此外,政府將成立1兆韓元以上的「Mega Fund」,提供金融政策支持。韓國計畫至2032年將CDMO生產能力擴大至2.5倍,確保在全球市場佔據領先地位。 韓國政府擬透過「國家生技委員會」強化公私部門協作、優化法規環境及加速創新技術的商業化,為我國未來生醫政策發展提供寶貴的參考價值,值得持續關注。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
歐盟發布資料法案草案2022年2月23日,歐盟委員會(European Commission,以下簡稱委員會)公開資料法案草案(Data Act,以下簡稱草案),基於促進資料共享的目的,草案其中一個目標是使不同規模的企業、用戶在資料利用上有著更加平等的地位,內容包含確保用戶資料可攜性、打破資料存取限制、推動大型企業的資料共享,扶植微/小型企業等幾大方向。 以下就草案對大型企業要求的義務切入,說明草案所帶來的影響: 確保用戶訪問資料的權利: 基本資訊的告知,包含所蒐集資料性質以及訪問方式、使用資料的目的;用戶可在不同產品/服務提供者(以下簡稱提供者)之間切換,且提供者須有技術支援;提供者需要有合理技術,避免資料在未經授權被查閱。 對於提供者的限制: 提供者不得將所蒐集的資料用於取得用戶的經濟地位、資產、使用喜好;具守門人性質的企業不得採取獎勵措施以鼓勵用戶提供自其他提供者處所取得的資料;提供者提供資料可以收取補償,但必須以公平、合理、非歧視、透明的方式為之,需要提供補償計算方式與基礎。 對於微/小/中型企業的保護 提供者對於微/小型企業所收取的資料補償,不得超過提供資料所需的成本;提供者利用市場優勢,對於微/小/中型企業的不合理/公平的約定無效(如單方面免除一方的重大過失/故意行為的責任)。 該資料法案草案須經歐盟議會(European Parliament)通過後才會生效,目前草案規定只要有在歐盟提供物聯網產品或服務之企業,就須遵守草案內容規範,考量到網路服務可跨國提供服務,草案規範與進度仍值得國內企業關注。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。