本文為「經濟部產業技術司科技專案成果」
美國聯邦地區法院於 12月初對伊利諾州禁止商家販售或出租色情及暴力電玩遊戲予未成年人,如有違反將會處以美金1000罰金之規定做出判決,宣告該等法律規定違憲,並對其執行發出禁止令。 法官指出該等規定將對電玩遊戲的創作以及發行造成寒蟬效應,沒有證據可以證明暴力電玩遊戲會對未成年遊戲者造成持續性的負面影響,使其思想和行為具有侵略性,且其對色情的定義並不是很明確。由於此等規定已對於電玩遊戲業者之言論自由造成限制,但是並沒有實質重大的理由得以支持該等限制,故宣告該等規定違憲,並對其執行發出禁止令。 伊利諾州一案並不是美國法院第一遭禁止相關電玩遊戲規定之執行的判決,於今年 11月時,美國法院即曾禁止密西根州執行禁止商家販售暴力電玩遊戲之規定。
日本農林省研議農業AI契約指引日本為提高農產品品質及附加價值,近年積極推動智慧農業,鼓勵利用AI等新技術研發農業產品和相關服務,惟技術研發需要使用大量資料訓練AI模型,部分農業工作者擔心自身經驗及知識等資料在研發過程中外洩,為避免上述狀況發生,農林水產省於2019年7月9日召開「農業AI利用契約指引檢討會」(農業分野におけるAIの利用に関する契約ガイドライン検討会),研議「農業AI利用契約指引」,防止在進行AI相關應用研發時,農業工作者提供之資料不慎外洩或遭到不當利用,導致其權益受損。 「農業AI利用契約指引檢討會」於2019年12月19日舉辦第3次會議,公布農業AI利用契約指引草案,草案內容包括(1)總論︰說明本指引之制定目的、農業與AI的關係,以及本指引與其他類似指引之差異和適用範圍;(2)農業AI產品、服務契約基本事項︰說明利用AI研發之農業產品和服務相關之智慧財產權,契約要件(契約目的及契約當事人等)及農業AI模型研發流程等基本概念;(3)農業AI產品、服務契約注意事項︰說明AI產品和服務契約之特徵和注意事項,以及利用AI等新技術進行研發之當事人訂定契約時應注意的問題,如農業工作者所提供之資料的重要性、以及個人資料的處理方式等;(4)契約範本︰針對農業AI研發契約、農業AI產品和服務利用契約,以及向第三方提供農業資料之契約,說明契約內容重點及提供範本供作參考。
日本發布策略性資料使用之資料管理指南,旨在協助企業將資料視為資產與產品,以策略性的運用資料日本獨立行政法人情報處理推進機構於2025年6月11日發布《日本發布策略性資料使用之資料管理指南(下稱《指南》)》,旨在協助企業將資料視為資產與產品,以策略性的運用資料。 《指南》指出,資料管理是指企業針對其所擁有的所有資料,進行有效率的收集、整理、保存、共享、分析與運用的一套系統化流程,其目的是為了透過確保資料品質及正確性,協助業務決策,並確保企業的競爭優勢。 在現代企業經營中,資料具有雙重屬性,亦即資料除了是企業重要的經營資產,同時也是企業的產品之一。作為資產的資料如同設備等一般資產,是可供銷售或提供服務的資產,故為最大化其價值並促進成長,需要進行適當管理與投資。此外,由於資料具有可複製性,因此一經外洩,將會造成廣泛且持續性的影響,因此需進行資料管理以確保資料安全性;作為產品的資料則需要有效的整備及管理,以確保維持其正確性所需的品質。 根據《指南》,資料管理的核心在於其需要貫穿資料生命週期,且隨著數位化的進展,對於資料管理亦產生新的需求,例如針對資料多元運用需求之應對、資料須具備可追溯性、針對機密資料之管理方式、確保資料安全性及資料品質等。 為因應新興資料管理需求,《指南》建議可透過評估自身定位、規劃必要體制、思考資料策略及管理架構、盤點企業既有資料及必要資料、培養及建立企業從決策層到執行層的人員均重視資料的資料文化,以及減少不必要或易出錯的作業流程等六項具體措施,建立企業自身貫穿資料生命週期之資料管理流程。 我國企業如欲逐步建立並落實貫穿資料生命週期的資料管理流程,可參考資訊工業策進會科技法律研究所創意智財中心所發布之《重要數位資料治理暨管理制度規範》,作為資料管理流程設計與實務落實之參考,以強化自身資料管理能力。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。