日本垃圾電郵法制2005年修正動態

刊登期別
2005年11月
 

※ 日本垃圾電郵法制2005年修正動態, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=749&no=67&tp=1 (最後瀏覽日:2025/11/23)
引註此篇文章
你可能還會想看
美國國家寬頻計畫簡介

美國Farmers Insurance Group在加州以竊取營業秘密為由控告前員工以及Automobile Club of Michigan

  2017年10月,美國知名保險公司Farmers Insurance Group(下稱Farmers)在加州法院提訴,控告前員工Venkatesh Kamath(下稱Kamath)、前資訊長Shohreh Abedi(下稱Abedi)和競爭對手American Automobile Association(下稱AAA協會)旗下的Automobile Club of Michigan(下稱Auto Club)竊取營業秘密。   Farmers聲稱,於2015年起使用Guidewire Software(下稱Guidewire),以更新其理賠處理和保險服務系統。Kamath因Guidewire業務,接觸到Farmers高度敏感與機密資訊。Abedi前為Kamath上司,曾監督Guidewire計畫初期階段。之後Abedi至Auto Club任職,協助Auto Club轉換使用Guidewire,並挖角包括Kamath在內許多Farmers員工。Kamath離職前,從Farmers電腦中拷貝超過6400份檔案,其中包括與Guidewire計畫及Famers核心業務相關的營業秘密資訊。   Farmers控訴Kamath、Abedi及Auto Club違反加州營業秘密法(California Trade Secret Act)、從事不公平競爭、違反忠實義務及其他事由,除訴請賠償外,也請求法院禁止被告使用其營業秘密。   本案非Farmers與AAA協會首次因營業秘密事宜而對訟。2010年間,Farmers曾控告AAA協會旗下Auto Club Group竊取其投保客戶機密資訊,惟該案當時經法院以Farmers未能證明有何損失或損害為由,駁回其訴。Farmers公司於2017年10月對Auto Club提起的本件訴訟,法院實務的發展為何,值得後續觀察。

英國展開「碳排放交易框架」修正意見徵集,擬將溫室氣體移除技術納入現行機制

英格蘭、蘇格蘭、威爾斯政府,以及北愛爾蘭農業、環境和鄉村事務部於2024年5月23日共同提出「溫室氣體移除納入碳交易框架」(Integrating Greenhouse Gas Removals in the UK Emissions Trading Scheme)聯合諮詢文件,擬將「溫室氣體移除」(Greenhouse Gas Removals, GGRs)技術納入現行英國碳排放交易體系。GGRs係指主動將大氣中的溫室氣體移除之方法,又稱「二氧化碳移除」(Carbon Dioxide Removal, CDR)、「負碳技術」(Negative Emission Technologies, NETs),此類技術被認為能協助「難減排產業」減少排放。 此次意見徵集主要針對以下四大面向: 1.基本原則:將GGRs整合進UK ETS,須以維持減碳誘因、確保市場誠信、創造長期有效率的碳權交易市場、環境友善、具備可操作性、最小干預性、未來靈活性保障、考量財務影響等原則為基本前提。 2.總量管制:UK ETS於納入GGRs後,預計仍將維持當前總量上限,以避免實質上增加企業的排放容許量。 3.配額發給:GGRs能獲得的配額,擬採取「事後發給」的方式,於移除完成並經過驗證後,才發給配額,以維持交易市場的可信性。 4.市場整合:英國目前暫不考慮建立獨立的溫室氣體移除交易市場,擬將GGRs完全整合進既有的UK ETS中,並透過總量及需求控制或免費配額等措施調節市場供需,穩定並促進市場發展。 英國政府相信,透過將GGRs納入現行UK ETS中,可以增加企業對於碳移除之需求,提高負碳技術的投資誘因,進而持續對於淨零排放的目標有所貢獻。

英國資訊委員辦公室提出人工智慧(AI)稽核框架

  人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。   AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。   「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。   ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。

TOP