日本國會於2021年5月12日,通過由内閣官房資通訊技術總合戰略室提出之數位社會形成基本法(デジタル社会形成基本法)。數位社會之形成,將有助於提升國際競爭力與國民便利性,因應少子化、高齡化與其他重要課題,本法之立法目的係為推動數位社會形成,使日本國內經濟健全發展,幫助國民幸福之實現。 本法之重點概如下述: 數位社會之定義係指藉由先進資通訊技術,適當有效活用各式各樣大量之電磁紀錄資訊,使各領域均得創新蓬勃發展之社會。 數位社會形成之理念係為了使國民生活能切實感受到寬裕和富足,實現國民得安全安心生活之社會,降低數位落差,並確保在數位社會下,個人與法人權利以及其他法律所保護之利益。 國家須制定數位社會形成之政策,具體包含確保高度資訊通訊網路與資通訊技術之可及性、整合國家與地方自治團體資訊系統、使國民得活用國家與地方自治團體之資訊、建立公部門基礎資訊資料庫、確保資通安全等。 為形成數位社會,明定國家、地方政府及企業之相關責任義務。 依數位廳設置法設置由內閣管轄之數位廳,並制定數位社會形成相關之重點計畫。 廢止高度資通訊網路社會形成基本法(IT基本法),以數位社會形成基本法為新資通訊技術戰略。
APPLE以違反DMCA法案追訴Psystar根據美國北加州聯邦地方法院之資料公佈,APPLE已於上週對“Mac Clone”(克隆機)廠商PSYSTAR追加控訴,指控PSYSTAR侵犯了APPLE的著作權和商標權,同時,亦違反了美國1998年通過之數位千禧年著作權法(DMCA - Digital Millennium Copyright Act)的規定。APPLE表示,尚有其他廠商涉及本案,但APPLE仍未公佈其他涉案廠商名單。 PSYSTAR總部位於美國佛羅里達州,今年4月其推出了安裝APPLE Leopard OS X作業系統的低價個人電腦。此“Mac Clone”(克隆機)標準版售價為399美元,高階版售價999為美元。繼今年7月APPLE對PSYSTAR提起法律訴訟後,11月26日又針對PSYSTAR推出的“Mac Clone”(克隆機)追訴其侵犯了APPLE著作權和商標權。 今年8月份,PSYSTAR曾反控APPLE,宣稱APPLE把Mac機種之硬體和Mac OS X作業系統實行捆綁銷售(Tying),已明顯涉及不公平競爭,並違反美國反壟斷法相應條款。APPLE於9月份已要求法院認定PSYSTAR該項反訴無效。該起訴訟的主審法官威廉•阿爾薩普(William Alsup)於11月18日已作出裁決,認定PSYSTAR對APPLE的反訴無效。 APPLE的律師表示,該公司已握有充足之證據,因此決定對PSYSTAR提出其違反DMCA法案的追加指控。但APPLE的律師沒有對此證據加以具體說明,僅表示該項新指控與PSYSTAR的產品和市場行銷活動有關。 按照原定訴訟程序,APPLE起訴PSYSTAR的訴訟預計將於2009年11月09日開庭審理,PSYSTAR和APPLE雙方必須於2009年08月20日之前向法院提交一份描述兩造觀點和權利的說明。
英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。