為促進歐盟境內各成員國的典藏機構(圖書館、資料館、博物館等)之典藏數位化以及數位作品的流通,歐盟於2012年10月28日頒布Directive 2012/28/EU(俗稱孤兒著作指令),本指令允許典藏機構基於「公益」目的利用孤兒著作從事營利之商業行為,並要求各成員國應於2014年10月29日前完成國內法的轉換程序,本指令有以下特色: (一)界定適用之機構與標的:適用之機構包括各成員國境內為公共利益所建立的公有典藏機構,包括公共圖書館、教育機構、博物館、資料館、電影與錄音典藏單位、公共電視台等。適用標的亦限制在前述機構數位典藏之作品,包括傳統出版品之書籍與報刊雜誌,以及電影、影音與錄音作品等。此外,指令同樣適用於附著在其他作品或構成他作品一部分(如書中的一張照片)的著作物,以及未出版之作品,例如書信、手稿等。 (二)明確定義「勤勉尋找」(diligent search)之最低標準:根據指令第3條第2項規定,所謂「勤勉尋找」之標準可由各會員國自行界定,但至少要包括本指令附件所載之各類資料庫、法定送存處(legal deposit)、以及相關著作權集體管理組織等。 (三)確立孤兒著作狀態相互承認機制:當一項著作在特定會員國被視為孤兒著作時,該效力便及於整個歐盟。另外,本指令第3條第6項亦規定歐盟各成員國應當將孤兒著作之狀態回報給歐盟內部市場調何局(Office for Harmonization in the Internal Market)。 (四)得基於公益性質(public-interest missions)將孤兒著作為商業授權之利用:典藏機構得基於公益性質將孤兒著作為商業授權之利用,特別是為保存或復原典藏物、或提供文化或教育上之近用等,可與其他公、私部門共同利用孤兒著作從事商業授權行為,並將收益彌補因前述典藏數位化所耗費的成本。 從歐盟孤兒著作指令的立法緣由與內容來看,其主要目的係在於釋放公有數位典藏的能量,以便可以達到歐盟在2010年所設定之活絡數位單一市場之目標。另本指令為加速典藏機構針對孤兒著作釋出的配套措施,例如明確定義勤勉搜尋的範圍,以及典藏機構得基於公益性質而將孤兒著作為商業授權之利用等,亦值得我國借鏡。
APEC跨境隱私保護規則體系下之問責機構介紹 歐盟第29條工作小組發布「自動化個人決策和分析指引」處理個人資料自動化決策與資料剖析風險問題歐盟第29條工作小組於2017年10月3日為因應歐盟一般資料保護規則(GDPR)第22條規定發布「自動化個人決策和分析指引」(Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679,2018年2月6日進一步修正,下稱指引),處理對個人資料自動化決策(automated decision-making)和個人檔案剖析(Profiling)的建立。 指引分為五個部分與最佳實踐建議,旨在幫助資料控制者(controller)合乎GDPR對個人資料自動化決策和分析的要求,內容包括下幾點:1.定義自動化決策和分析,以及GDPR對這些概念的處理方法;2.對GDPR第22條中關於自動化決策的具體規定;3.對自動決策和分析的一般規定;4.兒童和個人檔案剖析(Profiling)的建立;5.資料保護影響評估。 指引的主要內容包括: 個人檔案剖析(Profiling),意謂收集關於個人(或一群個人)的資料,並分析他們的特徵或行為模式,加以分類或分群,放入特定的類別或組中,和/或進行預測或評估(例如,他們執行任務的能力,興趣或可能的行為)。 禁止對個人資料完全自動化決策,包括有法律上法或相類重大影響的檔案剖析,但規則也有例外。應有措施保障資料主體的權利,自由和合法利益。 GDPR第22條第二項a之例外規定,(履行契約所必需的),自動化個人決策時,應該作狹義解釋。資料控制者必須能夠提出分析、自動化個人決策的必要性,同時考慮是否可以採取侵害隱私較少之方法。 工作小組澄清,關於在要求提供有關自動化決策所涉及的邏輯上有意義的資料時,控制者應以簡單的方法,告訴資料主體其背後的理由或依據的標準,而不得總是以自動化決策所使用算法進行複雜的解釋或者公開完整的算法為之。所提供的資料應該對資料當事人有意義。 對資料主體提供關於處理自動化決策上有關重要性和預期後果的資料,其意義在於必須提供關於該資料之用途或資料未來處理以及自動化決策如何影響資料主體的重要訊息。例如,在信用評等的情況下,應有權知道其資料處理的基礎,資料主體並能對其作出正確與否的決定,而不僅僅是關於決策本身的資料。 「法律效果」是指對某人的法律權利有影響,或者影響到個人法律關係或者其契約上權利。 工作組並未將GDPR前言71段視為絕對禁止純粹與兒童有關的自動決定,指出僅在某些情況下才有其適用(例如,保護兒童的福利)。 在基於自動化處理(包括分析)以及基於哪些決策產生法律效應或類似顯著效果的基礎上對個人方面進行系統和廣泛評估的情況下,進行資料保護影響評估並不局限於「單獨」自動化處理/決定。
澳洲於9月初生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government)2024年9月1日,澳洲生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government,下稱政策)。澳洲數位轉型局(Digital Transformation Agency,以下稱DTA)提出此政策,旨於透過提升透明度、風險評估,增進人民對政府應用AI的信任。 1. AI之定義 此政策採經濟合作暨發展組織(OECD)之定義:AI系統是一種基於機器設備,從系統接收的資訊進而產出預測、建議、決策內容。 2.適用範圍 (1)此政策適用於「所有非企業的聯邦個體(non-Corporate Commonwealth entities, NCE)」,非企業的聯邦個體指在法律、財務上為聯邦政府的一部分,且須向議會負責。此政策亦鼓勵「企業的聯邦實體」適用此政策。 (2)依據2018年國家情報辦公室法(Office of National Intelligence Act 2018)第4條所規定之國家情報體系(national intelligence community, NIC)可以排除適用此政策。 3.適用此政策之機構,須滿足下列2要件 (1)公布透明度聲明 各機構應在政策生效日起的6個月內(即2025年2月28日前)公開發布透明度聲明,概述其應用AI的方式。 (2)提交權責人員(accountable official,下稱AO)名單 各機構應在政策生效日起90天內(即2024年11月30日前)將AO名單提供給DTA。 所謂AO的職責範圍,主要分為: I.AO應制定、調整其機構採取之AI治理機制,並定期審查、控管落實情況,並向DTA回報;鼓勵為所有員工執行AI基礎知識教育訓練,並依業務範圍進行額外培訓,例如:負責採購、開發、訓練及部署AI系統的人員,使機構內的利害關係人知道政策的影響。 II.當既有AI 應用案例被機構評估為高風險AI應用案例時,通知DTA該機構所認定之高風險AI應用案例,資訊應包括:AI的類型;預期的AI應用;該機構得出「高風險」評估的原因;任何敏感性資訊(any sensitivities)。 III.擔任機構內協調AI的聯絡窗口 IV.AO應參與或指派代表參與AI議題之政策一體性會議(whole-of-government forums)。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)