歐盟於2022年5月30日正式簽署通過「資料治理規則」,同時引入(EU)2018/1724修正案(REGULATION (EU) 2022/868 OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on European data governance and amending Regulation (EU) 2018/1724),針對資料中介組織及資料利他主義組織業務啟動、營運等註冊程序進行補充。
資料治理規則也通稱為資料治理法(Data Governance Act, DGA)。DGA以建立一個可信賴的資料流通環境,達成資料的可利用性,以促進資料可用於各項研究以及創新的商品和服務為目標。
DGA中,特別引人注意的是第四章「資料利他主義」(Data altruism)的提出。依據資料治理規則第二條,所謂的資料利他主義係指資料主體基於自願且無償的情況下,同意他人得處理或利用其所持有的個人資料;或資料持有者在不尋求補償的情況下允許他人得利用其所有的非個人資料(non-personal data)。而這些資料利用的目的是以實現公共利益為目標,例如醫療保健、解決氣候變化、改善交通、促進公部門統計資料的產製與應用、改善公共服務、制定公共政策,或是科學研究等。
為利於資料利他主義的落實,歐盟希望有明確的的制度設計,藉以促成更多資料主體或資料持有人,在有足夠信任的基礎下,願意將資料無償提供並進行公益目的之利用,進而實現改善生活的目標。 因此,DGA中提出以下作法:
(1) 資料利他主義組織採自願註冊制度,而非許可制。在資料利他主義於符合形式登記要件後,並符合非營利、透明性以及滿足保障民眾權利等要求後,於其所屬會員國中註冊以成為公認(recognised)的資料利他主義組織。採自願註冊而非許可制的目的,是希望先以管制密度較低的方式,鼓勵更多組織投入資料利他主義的推動。
(2) 給予已註冊之資料利他主義組織識別標誌:透過相關的認可機制並授予識別標誌,藉此提高資料利他主義組織的可辨識度與信賴度,讓民眾在選擇合作的組織時有所依循。
(3) 透明度要求:為了增加資料主體或資料持有者對該組織的信任度,歐盟也將對資料利他主義組織進行一定程度的監督管理,例如年報編列與管理、是否以清晰易懂方式通知資料主體或資料持有者其資料被利用的目的、需保留資料利用之所有紀錄等。此外,也需要遵守DGA授權歐盟執委會未來訂定的相關補充規範。
整體而言,歐盟將資料利他主義的公益精神經由法制化的方式納入歐洲資料治理規則,透過歐洲資料利他主義同意書以及資料利他主義的相關管理規範,降低溝通成本以及建立信任基礎,以增加資料釋出的可能性,進而提升資料被利用的程度,最終達成改善人類福祉的目標。
歐洲理事會修訂「保護個人有關個人資料處理及自由流通規則(一般資料保護規則)」(Proposal for a Regulation of the European Parliament and of the Council on the protection of individuals with regard to the processing of personal data and on the free movement of such data (General Data Protection Regulation), GDPR),該草案內容包括行政罰鍰三審制(three-tiered system)。凡故意或過失違反歐洲資料保護基本權之企業,情節重大者,可能招致鉅額行政罰鍰,草案之裁罰性措施將讓從業者更加重視資料保護法益。 是否對違反GDPR之侵權行為裁處罰鍰,會員國政府有裁量權限;已受刑事制裁者,政府亦得免除罰鍰以避免重複處罰。資料保護主管機關(data protection authorities, DPAs)依三審制判斷,確保所裁處罰鍰具有效性、比例性及嚇阻性。三審制包括:第一審,是否對資料當事人之資料要求延遲、變更回應;第二審,是否對資料當事人、DPAs盡資訊透明義務;第三審,各種具體侵權行為,包括對於資料取得缺乏法律依據、未能即時告知資料違反情事,或未採取適當安全防衛措施於歐盟以外區域傳遞資料等。 依草案,DPAs審酌罰鍰額度時,應依下列計算罰鍰: (1) 企業故意或過失未能於一定期間內,回應資料當事人之資料查閱請求者,裁處上一會計年度全球總年營業額0.5%罰鍰。 (2) 企業故意或過失未能提供任何或所有符合資料當事人要求之必要資訊;或未能對消費者充分揭露個人資料蒐集、處理的目的者,裁處上一會計年度全球總年營業額1%罰鍰。 (3) 企業故意或過失未能維護消費者權益,更正或刪除消費者資料,違反GDPR所保障之消費者「被遺忘權」者,裁處上一會計年度全球總年營業額1%罰鍰。 (4) 企業故意或過失處理個人資料,行為不具適法性、違反法規、沒有對當事人通知資料違反或將個人資料傳遞自歐盟以外區域,該區域沒有適當安全資料保護者,就企業上一會計年度全球總年營業額裁處2%罰鍰。 六月中旬,歐盟各部長將就歐洲議會、歐盟理事會的提案,就罰鍰額度進行最後協商,未來將持續關注草案協商後續發展。
OECD發布「促進人工智慧風險管理互通性的通用指引」研究報告經濟合作發展組織(Organisation for Economic Co-operation and Development,下稱OECD)於2023年11月公布「促進AI風險管理互通性的通用指引」(Common Guideposts To Promote Interoperability In AI Risk Management)研究報告(下稱「報告」),為2023年2月「高階AI風險管理互通框架」(High-Level AI Risk Management Interoperability Framework,下稱「互通框架」)之延伸研究。 報告中主要說明「互通框架」的四個主要步驟,並與國際主要AI風險管理框架和標準的風險管理流程進行比較分析。首先,「互通框架」的四個步驟分別為: 1. 「定義」AI風險管理範圍、環境脈絡與標準; 2. 「評估」風險的可能性與危害程度; 3. 「處理」風險,以停止、減輕或預防傷害; 4.「治理」風險管理流程,包括透過持續的監督、審查、記錄、溝通與諮詢、各參與者的角色和責任分配、建立問責制等作法,打造組織內部的風險管理文化。 其次,本報告指出,目前國際主要AI風險管理框架大致上與OECD「互通框架」的四個主要步驟一致,然因涵蓋範圍有別,框架間難免存在差異,最大差異在於「治理」功能融入框架結構的設計、其細項功能、以及術語等方面,惟此些差異並不影響各框架與OECD「互通框架」的一致性。 未來OECD也將基於上述研究,建立AI風險管理的線上互動工具,用以協助各界比較各種AI風險管理框架,並瀏覽多種風險管理的落實方法、工具和實踐方式。OECD的努力或許能促進全球AI治理的一致性,進而減輕企業的合規負擔,其後續發展值得持續追蹤觀察。
歐洲專利局拒絕以AI為發明人的專利申請歐洲專利局於2019年12月20日,拒絕受理兩項以人工智慧為發明人的專利申請,並簡扼表示專利上的「發明人」以自然人為必要。另於2020年1月28日發布拒絕受理的完整理由。 系爭兩項專利均由英國薩里大學教授Ryan Abbott(下稱:專利申請人)的團隊申請,並宣稱發明人是「DABUS」。DABUS並非人類,而是一種類神經網路與學習演算法的人工智慧,由Stephen Thaler教授發明並取得專利。專利申請人先於2019年7月24日將自己定義為DABUS的雇主並遞出首次專利申請,再於2019年8月2日改以權利繼受人名義申請(Successor in Title)。專利申請人強調系爭申請是由DABUS發明,且DABUS在人類判定前,即自我判定其想法具新穎性(identified the novelty of its own idea before a natural person did)。專利申請人認為該機器應可以被視為發明人,而機器的所有人則是該機器創造出的智慧財產權之所有人─這樣的主張是符合專利系統的主旨,給予人們揭露資訊、商業化和進行發明的動機。申請人進一步強調:承認機器為發明人可以促進人類發明人的人格權和認證機器的創作。 在經過2019年11月25日的聽證程序(Oral Proceedings)後,歐洲專利局決定依《歐洲專利公約》(European Patent Convention)Article 81, Rule 19 (1)駁回申請。歐洲專利局強調,發明人必須是自然人(Natural Persons)是國際間的標準,且許多法院曾經對此做過相應的判決。再者,專利申請必須強制指定發明人,因為發明人需要承擔許多法律責任與義務,諸如取得專利權後衍生的法律權利。最後,雖然Article 81, Rule 19 (1)規定發明人應該要附上姓名與地址,但單純幫一個機器取名字,並不會使之符合《歐洲專利公約》的發明人要件。歐洲專利局強調,從立法理由即可知道,《歐洲專利公約》的權利主體僅限自然人和法人(Legal Persons)、專利申請的發明人僅限自然人。歐洲專利局表示,目前AI系統或者機器不具有權利,因為他們沒有如同自然人或法人一樣的人格(Legal Personality)。自然人因為生命而擁有人格,而法人的法人格來自於法律擬制(Legal Fiction)。這些法律擬制的人格來自於立法者的授權或者眾多司法判決的演進,而AI發明者是不具有此般的法律擬制人格。
強制蒐集人體生物資料的人權標準-聯合國人權事務委員會的見解