德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求

  德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。

  諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求:

(1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。

(2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。

(3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。

(4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。

(5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。

(6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。

(7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。

  綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。

相關連結
相關附件
你可能會想參加
※ 德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8265&no=64&tp=1 (最後瀏覽日:2026/05/07)
引註此篇文章
你可能還會想看
美國有線電視法節目載送規則實務現況簡介

美國知名嘻哈歌手Dr. Dre對婦產科醫生的商標註冊提出異議遭駁回

  2015年美國賓州的一位婦產科醫生Draion M Burch(以下簡稱Burch)申請註冊「Dr. Drai」商標在國際商品服務類別41(教育及娛樂服務)及44(醫療諮詢服務)以行銷自身的有聲書籍及研討課程。美國知名的嘻哈歌手Dr. Dre認為,該商標與自身的「Dr. Dre」【已註冊國際商品服務類別9(系列音樂錄製)、16(海報、美術印刷及貼紙)、25(T恤、長袖衫、帽子)、41(由音樂藝術家及創作者提供之娛樂服務)】雖拼法不同但讀音相同,會引起消費者的混淆,因而向商標審理暨訴願委員會(Trademark Trail and Appeal Board, TTAB,下稱委員會)提出異議。   委員會認為,雖然「Dr. Dre」與「Dr. Drai」兩者類似,然而Dr. Dre無法證明消費者會因而被混淆、誤導,進而去購買Dr. Drai的商品。該意見書更指出,由於Burch醫生的演講費用是5000元美金,比起購買一般物品,消費者在購買Burch醫生的書籍或演講門票時會付出「較高的注意程度」。Burch醫生也辯稱,消費者不太可能會混淆這兩個商標,因為「Dr. Dre並非醫生,也沒有資格提供任何醫療服務或銷售醫藥、保健產品。」他更證稱從未想要利用Dr. Dre的名聲謀取利益,因Dr. Dre創作的歌詞顯示出其對某些族群的歧視,若消費者將他與Dr. Dre聯想,只會認為他是一位不好的醫生。   基於上述理由,委員會最後駁回歌手Dr. Dre的異議。Dr. Dre的律師James Weinberger目前對此案拒絕做出評論,也不願透漏是否會再提出上訴。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」

警告台商 日亞化再出招

  日亞化學近日動作仍不斷,近來日亞化學分別在日本、德國及南韓相繼對台灣的代理商及客戶提出口頭警告,不得採用疑似侵權的LED。日亞化學從原先警告台灣業者,進一步對台灣業者的代理商及客戶下馬威,內外夾擊對台廠商都造成威脅。   日亞化學對台灣廠商不友善是事實,特別是部份侵犯日亞化學白光LED專利的廠家,更是恨得牙癢癢。從早期日亞化學所採取的舉動來看,最先是以口頭警告方式,或對外放風聲來嚇嚇台灣業者。後來嚇多了也不管用,最後就向法院提出假扣押,算是較明顯的法律行動。不過,後來也不見太大成效,轉而向國外下手,第一是到南韓,對台灣的客戶下手,警告他們不得採用疑似侵權的LED產品。這也達到效果,南韓客戶也不太敢用台灣的產品。隨後日亞化學又到日本,對台灣業者的代理商提出警告,最後也達成共識,不販售及採用台灣疑似侵權的產品。昨日,日亞化學更遠赴德國,向台灣業者的代理商提出警告,也達成初步共識,就是不再販售台灣疑似侵權的LED。   如此內外夾擊的大動作,看得出日亞化學對台灣疑似侵權的LED十分感冒,也以實際行動來明他們悍衛自有專利的決心,絕不容許外界對其決心有任何質疑。而在日亞化學的一連串動作後,台灣LED廠商有沒有受到傷?從各家業者的官方說法中得不答案,但從大家今年下半年來的業績表現不好來看,除了手機市場不如預期的因素外,部份原因應是被日亞從中作梗而無法順利出貨。

因應使用「生成式AI(Generative AI)」工具的營業秘密管理強化建議

2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

TOP