美國國會議員Markey與Rockefeller於2014年2月提出S. 2025:「資料仲介商有責與透明法草案」(Data Broker Accountability and Transparency Act),以促進對於消費者保護,與資料仲介產業發展間的平衡。該草案預將授權「美國聯邦貿易委員會」與各州據以監督與執行。 該草案對「資料仲介商」(以下簡稱Data Broker)加以定義為係以銷售、提供第三方近用為目的,而蒐集、組合或維護非其客戶或員工之個人相關資料的商業實體;更進一步的禁止Data Broker以假造、虛構、詐欺性的陳述或聲明的方式(包括提供明知或應知悉為偽造、假造、虛構、或詐欺性陳述或聲明的文件予以他人),自資料當事人取得或使其揭露個人相關資料。 該草案亦要求Data Broker建置及提供相關程序、方式與管道,以供資料當事人進行下列事項: 1.檢視與確認其個人相關資料(除非為辨識個人為目的的姓名或住址)正確性(但有其他排除規定)。 2.更正「公共紀錄資訊」(Public Record Information)與「非公共資訊」(Non-public Information) 3.表達其個人相關資料被使用的時機與偏好。例如在符合一定條件下,資料當事人得以「選擇退出」(Opt Out)其資料被Data Broker蒐集或以行銷為目的而販售。 於此同時,加州參議院亦已於2014年5月通過S.B. 1348:Data Brokers的草案,該草案要求資料當事人擁有檢視Data Broker所持有的資料,並得要求其於刪除提出後10天內永久刪除;當資料一經刪除,該Data Broker不得再行轉發或是將其資料販售給第三人。加州參議院並提案,該法案通過後將涵蓋適用至2015年1月1日所蒐集的資料,且個人於Data Broker每次違反時得提出$1,000美元的損害賠償訴訟(律師費外加)。雖然該草案受到隱私權保護團體的支持,卻受到加州商會(California Chamber of Commerce)與直銷聯盟(Direct Marketing Association)的反對。加州在Data Broker的立法規範上是否能超前聯邦的進度,讓我們拭目以待吧。
日本發布以人為本AI社會原則日本內閣於2018年6月15日決議組成跨部會之統合創新戰略推進會議,並於2019年3月29日發布AI戰略,其中的倫理面向為以人為本之AI社會原則(下稱AI社會原則),希冀藉有效安全的活用AI,推動「AI-Ready 社會」,以實現兼顧經濟發展與解決社會課題的「Society5.0」為最終目標。 為構築妥善應用人工智慧的社會,AI社會原則主張應尊重之價值理念如下: (一) 尊重人類尊嚴的社會:AI應作為能激發人類發揮多樣能力和創造力的工具。 (二) 多元性和包容性的社會(Diversity & Inclusion):開發運用AI以共創多元幸福社會。 (三) 永續性的社會(Sustainability):透過AI強化科技,以創造能持續解決社會差距與環境問題的社會。 而AI社會原則核心內容為: (一) 以人為本:AI使用不得違反憲法或國際保障之基本人權。 (二) AI知識(literacy)教育:提供必要的教育機會。 (三) 保護隱私:個人資料的流通及應用應妥適處理。 (四) 安全確保:把握風險與利益間之平衡,從整體提高社會安全性。 (五) 公平競爭確保:防止AI資源過度集中。 (六) 公平性、說明責任及透明性任。 (七) 創新:人才與研究皆須國際多樣化,並且建構產官學研AI合作平台。
美國上訴法院營業秘密判決關於軟體功能之合理保密措施認定2022年3月9日美國聯邦第二巡迴上訴法院(下稱上訴法院)於Turret Labs USA, Inc. (下稱Turret) v. CargoSprint, LLC(下稱CargoSprint)案,維持紐約東區聯邦地區(下稱原審法院)的結論,駁回Turret的請求。依照上訴法院判決的結論,確認在原告主張軟體功能被盜用時,必須證明其與軟體供應商及使用者均簽訂保密協議,始符合保護營業秘密法(Defend Trade Secrets Act,DTSA)所定之營業秘密。 2021年2月Turret指控CargoSprint及其CEO,以詐欺的方式,進入其授權Lufthansa Cargo Americas(下稱Lufthansa)使用的Dock EnRoll軟體,並對於軟體的技術資訊及演算法,進行逆向工程,盜用其營業秘密。CargoSprint則抗辯Turret所主張者,不成立營業秘密。 對於軟體功能的合理保密措施認定標準,不論是原審法院及上訴法院均指出,應在於「誰被允許接觸」及「保密協議」。首先,對於「誰被允許接觸」之認定,原審法院指出Turret完全把軟體控制權委由Lufthansa,而Lufthansa使其顧客了解Dock EnRoll軟體功能。上訴法院則指出雖然Lufthansa已限制僅得貨運代理相關的使用者,能夠接觸軟體,但Turret並不能證明其與Lufthansa達成協議,由Lufthansa作出前述的軟體使用者限制。其次,對於「保密協議」之認定,不論原審法院及上訴法院均指出Turret未能證明其與Lufthansa及其他軟體使用者已簽訂保密協議。綜上所述,兩審級法院均認為Turret未採取合理保密措施。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。 諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。 綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。