歐盟第29條工作小組於2017年10月3日為因應歐盟一般資料保護規則(GDPR)第22條規定發布「自動化個人決策和分析指引」(Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679,2018年2月6日進一步修正,下稱指引),處理對個人資料自動化決策(automated decision-making)和個人檔案剖析(Profiling)的建立。
指引分為五個部分與最佳實踐建議,旨在幫助資料控制者(controller)合乎GDPR對個人資料自動化決策和分析的要求,內容包括下幾點:1.定義自動化決策和分析,以及GDPR對這些概念的處理方法;2.對GDPR第22條中關於自動化決策的具體規定;3.對自動決策和分析的一般規定;4.兒童和個人檔案剖析(Profiling)的建立;5.資料保護影響評估。
指引的主要內容包括:
個人檔案剖析(Profiling),意謂收集關於個人(或一群個人)的資料,並分析他們的特徵或行為模式,加以分類或分群,放入特定的類別或組中,和/或進行預測或評估(例如,他們執行任務的能力,興趣或可能的行為)。
禁止對個人資料完全自動化決策,包括有法律上法或相類重大影響的檔案剖析,但規則也有例外。應有措施保障資料主體的權利,自由和合法利益。
GDPR第22條第二項a之例外規定,(履行契約所必需的),自動化個人決策時,應該作狹義解釋。資料控制者必須能夠提出分析、自動化個人決策的必要性,同時考慮是否可以採取侵害隱私較少之方法。
工作小組澄清,關於在要求提供有關自動化決策所涉及的邏輯上有意義的資料時,控制者應以簡單的方法,告訴資料主體其背後的理由或依據的標準,而不得總是以自動化決策所使用算法進行複雜的解釋或者公開完整的算法為之。所提供的資料應該對資料當事人有意義。
對資料主體提供關於處理自動化決策上有關重要性和預期後果的資料,其意義在於必須提供關於該資料之用途或資料未來處理以及自動化決策如何影響資料主體的重要訊息。例如,在信用評等的情況下,應有權知道其資料處理的基礎,資料主體並能對其作出正確與否的決定,而不僅僅是關於決策本身的資料。
「法律效果」是指對某人的法律權利有影響,或者影響到個人法律關係或者其契約上權利。
工作組並未將GDPR前言71段視為絕對禁止純粹與兒童有關的自動決定,指出僅在某些情況下才有其適用(例如,保護兒童的福利)。
在基於自動化處理(包括分析)以及基於哪些決策產生法律效應或類似顯著效果的基礎上對個人方面進行系統和廣泛評估的情況下,進行資料保護影響評估並不局限於「單獨」自動化處理/決定。
本文為「經濟部產業技術司科技專案成果」
中國近年來與美歐等國的貿易順差快速增長,此一方面彰顯中國的國際競爭力逐步提高,但也帶來人民幣升值壓力加大、貿易摩擦增多等問題。在去年底召開中央經濟工作會議,中國提出要把促進國際收支平衡作為宏觀調控的重要任務,緩解外貿順差過大所產生的問題。 近期中共商務部宣布將會同有關部門,採取五項具體措施包括:盡快頒布擴大先進技術設備進口的政策;加強從貿易順差國進口;大型展會增加進口功能;簡化手續及完善進口管理法規,規範進口市場秩序等,解決貿易順差過大的問題。其中最值的注意的是,中國擬藉由擴大先進技術設備進口之方式,解決貿易順差問題,其重點支持的高科技設備進口包括:大陸急需的半導體製造設備、高級化纖設備、高性能數控機床等先進技術設備,以及節能降耗的新設備、新工藝和新技術之進口。 為此,中國除規劃組織企業赴國外採購,擴大自美國、俄羅斯等重點國家的進口,推進節能環保領域的國際交流合作外,亦擬利用於舉辦大型展覽會之際增設進口館,鼓勵和支持各地設立機電產品進口展覽館,舉辦國外機電產品展覽。
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。
論專利公開前機密管理之重要性美國德州第一上訴法院於2023年8月的一項裁決強調了以下重點—即便企業的智慧財產權戰略是圍繞在專利申請而建立的,仍應證明其有在專利公開前採取到位的營業秘密保護政策。 在FMC Technologies, Inc. v. Richard Murphy and Dril-Quip, Inc.一案中,FMC是一家石油與天然氣公司,而Murphy是其前首席工程師,可接觸FMC公司重要研發技術。兩者的關係於2018年惡化,同年12月FMC公司提出了ITW系統(orientation-free subsea tree system)的專利申請,Murphy則於隔年5月收到Dril-Quip公司的錄用通知。離職時Murphy有簽署一份協議,承認其有義務為FMC公司持有的專屬資訊保密,並已將所有與工作相關的資訊歸還。 Murphy於Dril-Quip公司被任命負責開發與ITW系統幾乎相同的競爭產品。2020年5月,Dril-Quip公司於海上技術會議發布其下一代海底採油系統(VXTe Subsea Tree)的相關內容,並宣布將商業化生產。據此,FMC公司控訴Murphy使用其花費了多年時間和數百萬美元開發的營業秘密資訊。Dril-Quip公司則辯稱FMC公司所謂的營業秘密可輕易透過一般管道查明,且其未採取合理的努力來防止營業秘密外洩。 在判斷FMC公司是否有採取合理保密措施時,德州第一上訴法院針對其於專利尚未公開及等待核准審定期間是否有採取合理的努力進行審查,並發現下列情形: 1. FMC公司並未根據有存取該機密資訊需求的人設定權限,反而將其工程資料庫開放給所有公司內部的工程師,讓他們都可以遠端存取相關資料。 2. FMC公司並未禁止員工將公司的機密文件複製到外部伺服器上。 據此,德州第一上訴法院認定FMC公司於專利公開前未妥善保護其營業秘密,並認為被告Murphy未不當使用其營業秘密。最終,德州第一上訴法院判被告Murphy勝訴。 由上述裁決可以發現,企業在專利公開前仍應採取營業秘密保護政策,包括:(1)對機密資訊存取的權限控管、(2)規範對機密資訊的使用程序、規定等,以避免在訴訟中失利。關於前述之管理措施,可以參考資策會科法所創意智財中心發布的《營業秘密保護管理規範》,以了解如何降低自身營業秘密外洩之風險,並提升競爭優勢。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
跨平台應用程式的開發探討-以資料流動因應措施為中心