紐西蘭科學與創新大臣Steven Joyce與食品安全大臣Nikki Kaye,於今年(2014)4月16日宣佈該國將設置食品安全科學研究中心以因應食品安全危機。該中心預計於本年底前建成並投入使用,該國政府和產業界每年將聯合資助至少紐西蘭幣500萬元。該中心是為了促進、協調和提供食品安全科學與研究,並將提供食安相關科研補助,主要聚焦於涉及公共利益的食品安全科學和研究活動,涵蓋食品的整個價值鏈。
包括:
1.生物、化學、物理和放射性的食品安全風險;
2.與食品添加物質相關的風險;
3.食品安全的風險評估、管理及與公眾的良好溝通;
4.與國際科學界和現有的國際研究平臺展開合作。
紐西蘭食品安全科學研究中心起因自去年紐西蘭發生濃縮乳清蛋白受汙染事件,嚴重影響該國畜牧業外銷,為防範類似事件再發生,去年底政府研究報告指出29項改善目標,其中即包括設立該中心。
該中心成立後首先將徵求合作對象。紐西蘭商業、創新與就業部,初級產業部兩部會於2014年4月16日聯合發布合作意向徵求通知,有意承辦或者加盟中心的研究機構可以參加競標。商業、創新與就業部之科學委員會將負責遴選合作對象,得參加5月末食品安全科學研究中心合作研討會。同時,將徵求食安相關科研補助專案。兩部會在7月初,將向前述入選者發佈提案募集通知,特別鼓勵聯合提出專案申報書,後續將由獨立專家組成的委員會對其進行評估,最後由科學委員會做出補助決定。
本文為「經濟部產業技術司科技專案成果」
歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。
GSM 協會公布未來行動電話市場的規範原則建議在面對未來3G行動通訊市場的激烈競爭中,主管機關應如拿捏管制的強度?GSM協會於2006年2月6日公布未來行動通訊市場的規範原則建議有執法者應持續注意管制干預手段可能造成的成本及效益;管制目標及政策應該被清晰定義,且管制手段應符合最小干預及必要性;管制的內容必須是可公開即可受公評;應以市場現況,並從微觀及宏觀角度進行規範;在發照政策上應鼓勵新進業者對於電信設施的建設並促進有效市場競爭;頻譜的核配應從促進經濟上的效率、有效競爭及從市場結構面進行考量;對於行動通訊網路的限制應基於以科學、技術或確實研究結果,而不以公共顧慮為考量;對於客戶資料的不當用途,應設計安全防範措施等等。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
美國FDA將整合區塊鏈等新興技術於電子協同運作系統之開發,以提升藥物供應鏈的安全性依據2013年11月27日通過之藥物供應鏈安全法(Drug Supply Chain Security Act, DSCSA),美國食品與藥物管理局(US Food and Drug Administration, FDA)於2019年2月7日公布新的領航計畫(Pilot Program)。此計畫主要的目標在於發展電子協同運作系統(electronic, interoperable system)以降低不合規範的藥物於市場流通的可能性,並提升患者的用藥安全。 此運作系統預計於2023年開始正式實施,其主要的功能包含辨識(identify)或追蹤處方藥物(prescription drugs)於供應鏈中的流通狀態,以及排除非法藥物進入供應鏈。於後者的情形,此運作系統將同時協助相關主管機關在非法藥物於市場中流通時迅速反應。FDA進一步指出,為達到這些目的,將引入區塊鏈(blockchain)等已使用在全球食品供應鏈(global food supply chains)的管理技術,以促進系統運作過程中的可追蹤性(traceability)及準確性。 此計畫於2019年2月8日到3月11日間接受加入申請,FDA鼓勵供應鏈中的相關人員,包含製造商(manufacturers)、再包裝商(repackagers)及其他利害關係人(other stakeholders)加入並試行計畫中開發的運作系統等技術,以加強產品使用狀況的管理。此外,FDA未來將持續公布相關的指引草案,如藥物辨識指標(product identifiers)等,以提升產業利用性及藥物使用的安全性。