歐盟第29條工作小組於2017年10月3日為因應歐盟一般資料保護規則(GDPR)第22條規定發布「自動化個人決策和分析指引」(Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679,2018年2月6日進一步修正,下稱指引),處理對個人資料自動化決策(automated decision-making)和個人檔案剖析(Profiling)的建立。
指引分為五個部分與最佳實踐建議,旨在幫助資料控制者(controller)合乎GDPR對個人資料自動化決策和分析的要求,內容包括下幾點:1.定義自動化決策和分析,以及GDPR對這些概念的處理方法;2.對GDPR第22條中關於自動化決策的具體規定;3.對自動決策和分析的一般規定;4.兒童和個人檔案剖析(Profiling)的建立;5.資料保護影響評估。
指引的主要內容包括:
個人檔案剖析(Profiling),意謂收集關於個人(或一群個人)的資料,並分析他們的特徵或行為模式,加以分類或分群,放入特定的類別或組中,和/或進行預測或評估(例如,他們執行任務的能力,興趣或可能的行為)。
禁止對個人資料完全自動化決策,包括有法律上法或相類重大影響的檔案剖析,但規則也有例外。應有措施保障資料主體的權利,自由和合法利益。
GDPR第22條第二項a之例外規定,(履行契約所必需的),自動化個人決策時,應該作狹義解釋。資料控制者必須能夠提出分析、自動化個人決策的必要性,同時考慮是否可以採取侵害隱私較少之方法。
工作小組澄清,關於在要求提供有關自動化決策所涉及的邏輯上有意義的資料時,控制者應以簡單的方法,告訴資料主體其背後的理由或依據的標準,而不得總是以自動化決策所使用算法進行複雜的解釋或者公開完整的算法為之。所提供的資料應該對資料當事人有意義。
對資料主體提供關於處理自動化決策上有關重要性和預期後果的資料,其意義在於必須提供關於該資料之用途或資料未來處理以及自動化決策如何影響資料主體的重要訊息。例如,在信用評等的情況下,應有權知道其資料處理的基礎,資料主體並能對其作出正確與否的決定,而不僅僅是關於決策本身的資料。
「法律效果」是指對某人的法律權利有影響,或者影響到個人法律關係或者其契約上權利。
工作組並未將GDPR前言71段視為絕對禁止純粹與兒童有關的自動決定,指出僅在某些情況下才有其適用(例如,保護兒童的福利)。
在基於自動化處理(包括分析)以及基於哪些決策產生法律效應或類似顯著效果的基礎上對個人方面進行系統和廣泛評估的情況下,進行資料保護影響評估並不局限於「單獨」自動化處理/決定。
本文為「經濟部產業技術司科技專案成果」
2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。
何謂公共出借權(Public Lending Right;PLR )?隨著科技及網際網路的普及,扮演著知識保存及傳遞角色的圖書館,在近幾年來因應讀者的需求,逐漸朝向數位化邁進。提供數位化服務對於圖書館的使用者來說,可降低資料蒐集的時間成本。然而,對於著作創作人而言,圖書館若提供數位化服務,可能會造成整個著作市場的失序,著作權人無法由著作市場取得著作權法所賦予的相當報酬,同時因應數位時代來臨所衍生的電子資料庫業者的生存空間亦大幅被壓縮。目前已有28個國家立法承認著作人的租借權,對於圖書館出借館藏造成著作權人的損失,採取補償制度,即賦予著作權人「公共出借權」(Public Lending Right;PLR),對於著作權人因為圖書館出借館藏所可能的損失,予以一定額度的補償,而歐盟亦正醞釀推行統一的出借權制度。依據法源的不同,PLR在實施上會有不同的做法。目前已實行PLR的28國,其立法基礎大致可分為三類:(1) 根據著作權法中租借權的授權,如德國、澳洲;(2) 根據著作權法外的補償權,如英國;(3) 或是透過地方文化機構的補助。 所謂「公共出借權」或稱「公共借閱權」乃指圖書或其他媒體資料,透過圖書館出借給讀者,而衍生政府以補償金或酬金支給作家的一種權利,是一種權利補償金制度。這個制度經濟上的假設是圖書館的出借行為會對於著作在市場上的銷售產生不利的影響,從而減損了著作權人的收入。但因為圖書館出借圖書乃是整個著作權法促進文化發展下所必須的一環,因此,對於著作權人的特別犧牲加以補償。從文化政策的角度來看,是屬於國家對文化創造者所實施的保護與獎勵措施。而基於圖書館對社會大眾提供免費服務的信念,實施公共出借權的國家,皆以政府經費或另設基金的方式來運作,並未直接向圖書館使用者要求收費,也並非以圖書館經費來支應給予作者的報酬。
義隆電子否認與蘋果電腦已和解專利爭訟!台灣觸控模組暨晶片解決方案公司義隆電子 (Elan Microelectronics)對外否認已解決2009年4月於美國舊金山聯邦地方法院對蘋果電腦(Apple)所提出的專利侵權訴訟案。 該案件由義隆電子向Apple提出控告,認為Apple相關產品iPhone, iPod touch及MacBook,使用到義隆電子兩項專利,分別為U.S. Patent No.5,825,352(簡稱352專利),具有可同時察覺兩個或多個手指接觸感應之輸入設備之能力;另一U.S. Patent No.7,274,353(簡稱353專利),為具有能在鍵盤和手寫輸入模式兩者間互換的觸控板的技術。 Apple希望平息該案件,據說Apple提出7,000萬美元的和解價值,但義隆電子堅持說明該案仍於美國國際貿易委員會審議中。 義隆電子近年來,利用所擁有的觸控相關專利,與國際大廠提出專利侵權訴訟案,如2008年向新思國際(Synpatics);2009年4月向蘋果電腦(Apple);2010年1月向蘇州瀚瑞微電子(PixCir),以保護自身的智慧財產權。
開放非銀行事業從事預付式行動付款服務法制議題之研究