德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求

  德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。

  諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求:

(1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。

(2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。

(3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。

(4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。

(5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。

(6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。

(7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。

  綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。

相關連結
相關附件
你可能會想參加
※ 德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8265&no=67&tp=1 (最後瀏覽日:2026/02/22)
引註此篇文章
你可能還會想看
中國大陸加入國際工業設計保護的海牙體系

  世界智慧財產權組織(World Intellectual Property Organization,簡稱WIPO)宣布中國大陸於2022年2月5日提交了加入《海牙協定》1999 年日內瓦文本的文件,加入國際工業設計註冊的海牙體系(Hague System),該協定將於2022年5月5日在中國大陸生效。隨著中國大陸的加入,海牙體系涵蓋的國家總數將達到 94 個,其中包含根據世界銀行排名十大經濟市場中的九個。   工業設計形成物品的裝飾,其可由三維特徵(例如物品的形狀)或二維特徵(例如圖案、線條或顏色)組成,圖形用戶界面或虛擬世界物品則成為最近流行的設計形式。海牙體系為工業設計提供國際保護的解決方案,申請人不需要在各個國家或地區分別提交多次申請,只要透過海牙體系提交一份國際申請,就可在90多個國家/地區註冊多達100項設計。   據統計,2020 年中國大陸居民共提交了795,504件設計,約佔全球總數的 55%。中國大陸加入海牙體系將使其居民可更容易地在海外取得工業設計保護並推廣市場,外國設計師也將能夠更容易地進入中國大陸市場。   我國企業或設計師如有工業設計保護需求,亦可評估運用海牙體系提交國際工業設計申請,在多個國家取得設計註冊。

Google挑戰法國最高行政法院對被遺忘權之看法

  2016年3月法國個人資料保護主管機關「國家資訊自由委員會」(Commission Nationale de l'Informatique et des Libertés, CNIL)要求Google等搜尋引擎公司,刪除網路搜尋所出現之歐洲公民姓名。此舉參考2014年歐洲法院(European Court of Justice)對於Mario Costeja González一案(C 131/12)所作裁決,Google公司和Google西班牙公司須遵守西班牙資料保護局(Agencia Española de Protección de Datos, AEPD)要求,移除出現原告姓名之搜尋結果。Google表示不服,並上訴法國最高行政法院(Conseil d'État)。   於本案中Google提出兩點主張:第一,CNIL對於被遺忘權(right to be forgotten)適用範圍過大,聲稱所搜尋到之姓名等資訊,屬於事實或來自新聞報導和政府網站之合法公開網站資訊,認為CNIL將隔絕原本在法國可為其他人所知之合法資訊;第二,Google主張向來遵守各國個人資料保護政策,將遵照CNIL要求,但僅限刪除在法國網域內之歐洲公民姓名,無法及於全球網域,除非法國政策已為全歐盟或全球所適用,不然法國個人資料保護審查制度不能延伸至其他國家。   對於網路公民權利推廣不遺餘力之「電子前線基金會」(Electronic Frontier Foundation, EFF)認為CNIL對法國公民資料保護之特別要求,將對Google造成損害。

全球首宗 GCP 中藥上市

  全球首宗通過西方臨床試驗的中藥新藥將在台上市,結合台灣、新加坡與大陸三地資金與技術發展出來的紅麴萃取藥物「壽美降脂一號」,本月十七日正式獲得國內衛生署中醫藥委員會許可通過,成為全球第一項符合西醫「優良臨床規範( GCP )」,獲准進入市場的複方植物用藥。   由於中藥複方治療的特性和西藥單一成分的結構有很大的不同,縱使美國過去曾投入相當多資源進行中草藥研發,但是至今並未有任何一項藥物完成三期臨床試驗,因此「壽美降脂一號」能通過衛生署的新藥審核,不僅對中藥界而言是一項破冰之舉,對我國新藥臨床也算是一大突破。「壽美降脂一號」是由新加坡華僑銀行子公司維用科技出資,由北京大學研發團隊從兩百多種紅麴中,篩選出特殊菌株後,授權台灣公司進行膠囊的開發。為了這項中藥新藥的核准許可,開發公司彥臣生技總計投入三年半時間,在中國醫藥大學附設醫院院長林正介主持下,完成第三期臨床試驗。中醫藥委員會及醫藥品查驗中心( CDE )為了慎重起見,又花了一年半時間審查,今年終獲得中醫藥委員會通過許可。   國內目前用來治療心血管疾病的降血脂化學藥物共有六種,一年市場規模三十五億元,其中最普遍的史塔汀( Statin )被發現有少數過敏副作用,紅麴萃取而成的「壽美降脂一號」,其目的就是為了突破化學藥物所產生的副作用。彥臣生技目前僅掌握「壽美降脂一號」的台灣銷售權,短期內可進一步獲得日、韓兩地市場銷售權,母公司維用科技已計劃利用台灣臨床試驗成果,進一步向美國 FDA 叩關。為了執行 GCP ,彥臣生技已自行開發一套中藥標準化的平台技術,該公司將和維用科技洽談技術授權,爭取進入美國市場機會。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

TOP