美國參議院於2013年4月10日一致通過「數位責任與透明法」(Digital Accountability and Transparency Act,DATA Act)草案,現在續行送往眾議院審查。DATA 法草案目的在於使政府支出資料更為透明公開,且以得再利用的方式提供。該草案若通過,將建立使用聯邦基金(Federal funds)做支出或受資助的政府機關單位或其他實體財務資料的標準;擴展USAspending.gov網站含括上述資料,並要求聯邦政府以電子格式,自動化、標準化的方式公佈財務管理及採購相關資料,使公私部門便於近用與進行分析。目前草案版本內文並無規定資料特定格式的資料標準,但可得確定的是必須為被廣泛接受、非專有、可搜尋,且獨立於平台使用之電腦可判讀格式,以及可得一致適用於各機關單位之聯邦得標廠商與接受政府補助之實體的特殊標誌。 曾協助草擬2011年DATA法草案之「資料透明聯盟」(Data Transparency Coalition)執行長Hudson Hollister表示,DATA法草案把結構性的資料模式應用於聯邦政府支出時,將前所未有的激發責任與支出情況間的關係;同時,也將聯邦支出資料(federal spending information)轉化為開放政府支出資料(open spending data),成為強化民主治理與激發創新的重要公共資源。然而,由於DATA法草案所涉及的機關眾多,主要包括商務部(DOC)、財政部(DOT)、總務管理局(GSA),與預算管理辦公室(OMB),該法案通過後是否能落實,絕大部分還是取決於白宮是否會要求聯邦政府機關單位完整且迅速的遵循法律的構成要件。
基因改良作物命運大不同身為世上最大基因改良( GMO)棉花生產者的 中國大陸 ,已經批准將經過基因改良的混種棉花進行商業化,預料可以解決生活日用品上的短缺。相對於此, 歐盟 的農業部長們,卻對於是否批准編號1507的基因改良玉米,陷入一個進退維谷的困境。但是經過8年激烈的反對, 丹麥 卻允許基因改良玉米的進口。 而在 美國 有 85﹪的大豆,76﹪的棉花,45﹪的小麥是經過基因改良的。至於 澳洲 農業與資源經濟局則最近則對基因改良作物做出一份報告,認為各省禁止基因改良食品會減小經濟效益,使 澳洲 面對世界各地日益增多的基因改良作物發展,屈居弱勢。至終可能會在十年後造成1.5億到6億澳幣的損失。
逐漸式微的「不可避免揭露原則(Inevitable Disclosure Doctrine)」在2023年,多個美國法院判決拒絕採納「不可避免揭露原則(Inevitable Disclosure Doctrine)」,顯示出該原則將不再是原告於營業秘密訴訟中的一大利器,原告亦無法僅透過證明前員工持有營業秘密資訊且處於競爭狀態,便要求法院禁止該名前員工為其競爭對手工作。 在2023年2月,美國伊利諾伊州北區法院於PetroChoice v. Amherdt一案中指出,法院在適用「不可避免揭露原則」時會遏制競爭對手之間的員工流動,故將評估個案事實並嚴格限制其適用。在2023年6月,美國伊利諾伊州北區法院於Aon PLC v. Alliant Ins. Services一案中指出,根據2016年美國國會所通過的「保護營業秘密法案(Defend Trade Secrets Act, DTSA)」,該法案拒絕了「不可避免揭露原則」的適用,並禁止法院僅憑他人所知悉的資訊,阻礙其尋求新的工作,因此駁回了原告的損害賠償主張。在2023年9月,美國密蘇里州東區法院於MiTek Inc. v. McIntosh一案中同樣拒絕了「不可避免揭露原則」的適用,儘管該州的州法並未明確表達採納或拒絕該原則。 除此之外,美國聯邦法院在去年度的每一份報告意見中(Reported Opinion),皆未顯示出根據「不可避免揭露原則」申請禁令或取得救濟是合理的。換言之,大多數的美國法院都拒絕採納「不可避免揭露原則」或嚴格限制其適用。 綜上所述,儘管「不可避免揭露原則」能有效防止來自前員工不當使用其營業秘密的威脅,但其不再是未來營業秘密訴訟中的勝訴關鍵。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。