加拿大目前對基因改造產品的政策是採取自願標示制度。然而魁北克省的消費者贊成應對含有機因改造成份之食品實施強制標示。本月初,該省農林廳長在一項會議中指出,基因改造產品可能存有環境方面的風險並且有消費者疑慮的問題,因此應嚴謹以對,改採取強制性標示制度,讓消費者可以自行選擇。雖然目前聯邦官員以及其他省份仍贊同現行的自願標示制度,首長們 ( 大部分反對強制標示的立法 ) 同意繼續討論此議題。
此外,目前近日美國阿拉斯加州亦通過 Bill 25 法案,強制對基因改造魚類及相關魚類產品作明顯標示。這項法案通過後,該州成為美國第一個針對基因改造食品標示問題作明確立法的一州,該法案更成為美國第一個要求標示基因改造食品的法案。有關觀察家預期這個法案將會帶動美國各州對基因改造食品之標示進行必要的規範。根據美國 Rutgers 大學於 2004 年 11 月所作的民調顯示,約有 89 %的美國民眾希望基因改造食品應有明確的標示。
本文為「經濟部產業技術司科技專案成果」
隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。
法國資料保護機關要求Clearview AI刪除非法蒐集的個人資料法國國家資訊自由委員會(Commission nationale de l’informatique et des libertés, CNIL)自2020年5月起陸續收到民眾對臉部辨識軟體公司Clearview AI的投訴,並展開調查。嗣後,CNIL於2021年12月16公布調查結果,認為Clearview AI公司蒐集及使用生物特徵識別資料(biometric data)的行為,違反《一般資料保護規範》(General Data Protection Regulation,GDPR)的規定,分別為: 非法處理個人資料:個人資料的處理必須符合GDPR第6條所列舉之任一法律依據,始得合法。Clearview AI公司從社群網路蒐集大量全球公民的照片與影音資料,並用於臉部辨識軟體的開發,其過程皆未取得當事人之同意,故缺乏個人資料處理的合法性依據。 欠缺保障個資主體的權利:Clearview AI公司未考慮到GDPR第12條、第15條及第17條個資主體權利之行使,特別是資料查閱權,並且忽視當事人的個資刪除請求。 因此,CNIL要求Clearview AI公司必須於兩個月內改善上述違法狀態,包括:(1)在沒有法律依據的情況下,停止蒐集及使用法國人民的個資;(2)促進個資主體行使其權利,並落實個資刪除之請求。若Clearview AI公司未能於此期限內向CNIL提交法令遵循之證明,則CNIL可依據GDPR進行裁罰,可處以最高 2000萬歐元的罰鍰,或公司全球年收入的4%。
英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。
奈及利亞新創企業條例二讀通過,具體化對新創企業的定義奈及利亞目前為非洲發展新創企業最為成功的國家,於2021年獲得了超過18億美元的投資。而奈及利亞為了擴大新創發展,於2021年6月開始初擬奈及利亞新創企業條例草案(The Nigeria Startup Bill 2021,以下簡稱「新創草案」),並於同年9月完成草案,於10月提交予總統,並於2022年3月交付奈及利亞參議院進行立法,直至目前已通過二讀。 新創草案將確保奈及利亞新創相關法規清晰、有計劃地適用於科技新創生態系統,並認為將有助於為科技新創企業成長、發展和運營,同時打造出可以吸引和保護投資之有利於科技新創企業之環境。此外,該草案亦希望能促進奈及利亞科技相關人才的發展和成長,並將奈及利亞的新創生態系統打造成非洲領先的科技發展重鎮,培養出擁有科技尖端技能和出口能力之優秀創業家。 新創草案希冀能透過該草案達成建立數位發展及創業委員會、支持新創企業和潛在參與人、定義新創企業、發展創投基金、培訓新創企業及其未來發展、設計稅收或財政激勵措施、取得相關法規支持、招攬加速器或孵化器、形成新創園區或產業聚落。其中,新創草案對於新創企業之定義為:公司成立未滿10年、公司經營項目為數位科技之創新項目、公司需研發或持有數位科技產品,最後公司須由一名或多名奈及利亞人持有至少51%股份。