美國加州通過《基因資訊隱私法》針對基因資訊建立個資保護機制

  美國加州州長於2021年10月6日正式簽署《基因資訊隱私法》(Genetic Information Privacy Act, GIPA), 將於2022 年 1 月 1 日生效。GIPA在聯邦法和州隱私法的框架下,補充建立基因資訊保護機制,規範無醫護人員參與的「直接面對消費者基因檢測公司」(Direct-to-consumer genetic testing company,下稱DTC公司)之個資保護義務,並要求DTC公司執行下列消費者基因資料(去識別化資料除外)之蒐集、利用、揭露,須獲消費者明示同意:

  1. 利用DTC公司產品或服務所蒐集之基因資料,應取得同意。其同意書須載明近用對象、共享方式,以及具體利用目的。
  2. 初步測試完成後儲存生物樣本,應取得同意。
  3. 目的外利用該基因資料或樣本,應取得同意。
  4. 向服務提供商外之第三方傳輸或揭露該基因資訊或樣本,應取得同意。其同意書須載明該第三方之名稱。
  5. 分析行銷或第三方依消費紀錄所進行之促銷,應取得同意。

  上開同意之取得,不可使用黑暗模式(dark patterns)誤導消費者,並必須針對資料或樣本採取合理安全維護措施。

  GIPA也新增消費者權利,保障消費者近用權和刪除權,DTC公司須制定政策,使消費者易於近用基因資料、刪除帳戶與基因資料、銷毀生物樣本等,並須於消費者依法撤回同意後30日內銷毀之,不得因行使權利而有差別待遇。DTC公司若GIPA違反規定,消費者擁有私人訴訟權。

相關連結
你可能會想參加
※ 美國加州通過《基因資訊隱私法》針對基因資訊建立個資保護機制, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8746&no=64&tp=1 (最後瀏覽日:2026/04/13)
引註此篇文章
你可能還會想看
美國國會提出打擊專利蟑螂的研究報告

  專利蟑螂(Paten Troll)與非專利實施實體(Non-Practicing Entity, NPE)乃係本身不進行任何生產製造或產品銷售,藉由購買專利權(少數亦自行研發),以專利授權或專利訴訟為主要手段,對其他公司啟動專利攻擊,進而收取授權金或賠償金為營利目標之公司總稱。NPE約自2001年開始出現迅速成長,2011年因NPE專利訴訟與授權所造成的花費高達290億美金,較2005年的70億美金成長400%,而其中僅有不到25%是用於研發創新,超過25%用於訴訟。   美國國會智庫機構,國會研究處(Congressional Research Service, CRS)於今年(2012)8月20日發表「專利蟑螂爭議概要」(An Overview of the "Patent Trolls" Debate)研究報告,分析專利蟑螂的行為及其影響,並提出改善方法及建議:   一、建議限制資訊科技的專利保護,然而此舉可能違反WTO下TRIPS之規定(Agreement on Trade-Related Aspects of Intellectual Property Rights)。   二、許多專利蟑螂與NPE利用專利申請得提出延續案(Continuation),延長專利審查的保密期間。使得他公司可能在不知情下使用該專利而造成侵權。因此建議取消申請中專利提出延續案,並適度公開申請中專利案資訊。   三、限制專利蟑螂與NPE申請美國ITC(International Trade Commission)的禁制令,取消專利推定效力,或改變專利授權金計算方式等。   四、縮短專利權期間或增加專利之維持費。   五、仿效商標法上放棄(abandonment)/怠於行使(laches)商標權之抗辯,對於長期未實施之專利,原告需負舉證責任,證明其有進行該專利之研發、商品化或授權。   六、建議專利轉讓或授權皆應強制公開,以促進市場效率。

日最高院 首定義網路「被遺忘權」

  日本一名男子要求法院下令谷歌(Google)刪除他因性犯罪被捕的新聞搜索結果,遭最高法院以侵害言論自由駁回。這是該國最高法院首次做出有關網際網路搜尋的「被遺忘權」相關裁決。   法院網站張貼的聲明表示:「唯有在保護隱私權的價值明顯高於資訊公開時,才會准許刪除(有關這項指控的內容)。」而東京法院亦對於刪除網路搜尋紀錄的基準做出定義,如: 1. 報導的事實性質及內容 2. 事實傳達的範圍及隱私受害程度 3. 當事人的社會地位及影響力 4. 報導的目的及意義 5. 社會的狀況 6. 報導中公開當事人真實姓名及住址的必要性   而日本法院雖已界定被遺忘權之判斷基準,但門檻極為嚴格,臺灣先前亦有前職棒球團老闆訴請Google移除其涉及假球案(法院判決其無罪)之相關連結,但遭敗訴之結果。   相較於亞洲對於被遺忘權行使之結果,歐洲法院於2014年時裁決:當個人資料係「不適當」、「無關連」、「已無關連且多餘」,而且「與公共利益無關」。民眾就有權行使被遺忘權,要求包括Google等搜尋引擎將其相關資料移除。自2014年5月29日統計至今歐洲地區行使被遺忘權之資料,Google收到685,622個要求,並完成「移除要求」評估的網址總數為1,896,454個網址,刪除率達到43.2%。 由上可知,亞洲(如日本與我國)與歐洲對於被遺忘權行使仍有判斷基準上之差異,故後續亞洲國家的相關發展還有帶持續關注。

美國聯邦法官裁決AI「訓練」行為可主張合理使用

美國聯邦法官裁決AI「訓練」行為可主張合理使用 資訊工業策進會科技法律研究所 2025年07月07日 確立我國資料創新利用的法制基礎,建構資料開放、共享和再利用的各項機制,滿足民間及政府取得高品質、可信任且易於利用資料的需求,以資料提升我國數位發展的價值,並強化民眾權利的保障,我國於2025年6月16日預告「促進資料創新利用發展條例」,擬推動資料基礎建設,促進更多資料的釋出。 AI發展領先國際的美國,近日首次有聯邦法院對AI訓練資料表達肯定合理使用看法,引發各界關注[1]。我國已開始著力於AI發展所需的資料流通與有效利用,該判決將有助於啟示我國個人資料、著作資料合法使用之法制因應研析。 壹、事件摘要 2025年6月23日美國加州北區聯邦地方法院(United States District Court for the Northern District of California),威廉·阿爾斯法官(Judge William Alsup)針對Andrea Bartz、Charles Graeber、Kirk Wallace Johnson這三位美國作家,對Anthropic公司訓練大型語言模型(Large Language Model, LLM)時使用受其等著作權保護書籍一案,作出指標性的簡易裁決(summary judgment)[2]。 此案被告掃描所購買的實體書籍,以及從盜版網站複製取得的受著作權保護的書籍,儲存在其數位化、可搜尋的檔案中,用來訓練其正在開發的各種大型語言模型。原告主張被當開發Claude AI模型,未經授權使用大量書籍作為訓練資料的行為,為「大規模未經授權利用」。法院則以四要素分析架構,支持合理使用抗辯(Fair Use Defense),強調AI訓練屬於技術發展過程中不可或缺的資料利用,AI公司於模型訓練階段使用著作權書籍,屬於「合理使用」(Fair Use),且具「高度轉化性」(Highly Transformative),包括將購買的實體圖書數位化,但不包括使用盜版,也不及於建立一個永久性的、通用目的的「圖書館(library)」(指訓練資料集)。 貳、重點說明 依美國著作權法第107條(17 U.S.C. § 107)規定,合理使用需綜合考量四要素,法官於本案中認為: 一、使用的目的與性質—形成能力具高度轉化性 AI模型訓練的本質在於學習語言結構、語意邏輯,而非單純複製或重現原著作。AI訓練過程將大量內容作為輸入,經由演算法解析、抽象化、向量化,最終形成轉個彎創造出不同的東西 (turn a hard corner and create something different) 的能力,屬於一種「學習」與「再創造」過程。AI訓練的目的並非為了重現原著作內容,而是為了讓模型具備生成新內容的能力。這種「轉化性」(transformative use)極高,與單純複製或替代原著作的行為有明顯區隔[3]。 另外訓練過程對資料做格式變更本身並未增加新的副本,簡化儲存並實現可搜尋性 (eased storage and enabled searchability),非為侵犯著作權人合法權益目的而進行,亦具有轉化性 (transformative)。原告就所購買的紙本圖書,有權按其認為合適的方式「處置 (dispose)」,將這些副本保存在其資料集中,用於所有一般用途[4]。 二、受保護作品的性質--高度創作性非關鍵因素 法院認同原告所主張的書籍是具有高度創意(creative)的作品理應享有較強的保護。但法院亦認為合理使用的四個要素,須為整體衡量,儘管作品本身具有較高的創意性,但由於使用行為的高度轉化性以及未向公眾直接重製原作表達,整體而言,法院認定用於訓練 LLM 的行為構成合理使用[5]。 三、使用的數量與實質性--巨大數量係轉化所必要 法院認為AI模型訓練需大量內容資料,甚至必須「全書」輸入,看似「大量使用」,但這正是AI技術本質所需。AI訓練是將內容進行抽象化、數據化處理,最終在生成新內容時,並不會原封不動重現原作。所以,雖然訓練過程涉及全部作品,但AI模型的輸出並不會重現原作的具體表達,這與單純複製、重製作品的行為有本質區別[6]。 四、對潛在市場或價值的影響 本案法院明確指出,人工智慧模型(特別是原告的Claude服務)的輸出內容,通常為全新生成內容,並非原作的精確重現或實質模仿冒,而且Claude服務在大型語言模型(LLM)與用戶之間加入額外功能,以確保沒有侵權輸出提供予用戶。因此,此類生成內容不構成對原作的替代,不會削弱原作的銷售市場,也不會造成市場混淆,而且著作權法保護的是原創而非保護作者免於競爭[7]。 不過即便法院支持被告的合理使用主張,肯定AI訓練與著作權法「鼓勵創作、促進知識流通」的立法目的相符。但仍然指出提供AI訓練的合理使用(Fair Use)不代表資料來源的適法性(Legality of Source)獲得合法認定。沒有任何判決支持或要求,盜版一本本來可以在書店購買的書籍對於撰寫書評、研究書中的事實或創建大型語言模型 (LLM) 是合理必要 (reasonably necessary) 的。此類對原本可(合法)取得的圖書進行盜版的行為,即使用於轉化性使用並立即丟棄,「本質上」、「無可救藥地」(inherently、irredeemably)構成侵害[8]。 參、事件評析 一、可能影響我國未來司法判決與行政函釋 我國於現行著作權法第65條規定下,須於個案交予我國法院認定合理使用主張是否能成立。本案判決為美國首個AI訓練行為可主張合理使用的法院見解,對於我國法院未來就對AI訓練資料取得的合法使用看法,顯見將會產生關鍵性影響。而且,先前美國著作權局之報告認為AI訓練過程中,使用受著作權保護作品可能具有轉化性,但利用結果(訓練出生成式AI)亦有可能影響市場競爭,對合理使用之認定較為嚴格,而此裁定並未採取相同的見解。 二、搜取網路供AI訓練資料的合理使用看法仍有疑慮 依據本會科法所創智中心對於美國著作權法制的觀察,目前美國各地法院中有多件相關案件正在進行審理,而且美國著作權局的合理使用立場較偏向有利於著作權利人[9]。相同的是,均不認同自盜版網站取得的資料可以主張合理使用。然而AI訓練所需資料,除來自於既有資料庫,亦多來自網路搜取,如其亦不在可主張範圍,那麼AI訓練的另一重要資料來源可能會受影響,後續仍須持續觀察其他案件判決結果。 三、有效率的資料授權利用機制仍是關鍵 前揭美國著作權局報告認為授權制度能同時促進產業發展並保護著作權,產業界正透過自願性授權解決作品訓練之方法,雖該制度於AI訓練上亦尚未為一完善制度。該裁決也指出,可合理使用資料於訓練AI,並不代表盜版取得訓練資料可以主張合理使用。這對於AI開發而言,仍是須要面對的議題。我國若要發展主權AI, 推動分散串接資料庫、建立權利人誘因機制,簡化資料查找與授權流程,讓AI訓練資料取得更具效率與合法性,才能根本打造台灣主權AI發展的永續基礎。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]相關新聞、評論資訊,可參見:Bloomberg Law, "Anthropic’s AI Book-Training Deemed Fair Use by US Judge", https://news.bloomberglaw.com/ip-law/ai-training-is-fair-use-judge-rules-in-anthropic-copyright-suit-38;Anthropic wins a major fair use victory for AI — but it’s still in trouble for stealing books, https://www.theverge.com/news/692015/anthropic-wins-a-major-fair-use-victory-for-ai-but-its-still-in-trouble-for-stealing-books;Anthropic Scores a Landmark AI Copyright Win—but Will Face Trial Over Piracy Claims, https://www.wired.com/story/anthropic-ai-copyright-fair-use-piracy-ruling/;Anthropic Wins Fair Use Ruling In Authors' AI Copyright Suit, https://www.thehindu.com/sci-tech/technology/anthropic-wins-key-ruling-on-ai-in-authors-copyright-lawsuit/article69734375.ece., (最後閱覽日:2025/06/25) [2]Bartz et al. v. Anthropic PBC, No. 3:24-cv-05417-WHA, Doc. 231, (N.D. Cal. June 23, 2025),https://cdn.arstechnica.net/wp-content/uploads/2025/06/Bartz-v-Anthropic-Order-on-Fair-Use-6-23-25.pdf。(最後閱覽日:2025/06/25) [3]Id. at 12-14. [4]Id. at 14-18. [5]Id. at 30-31. [6]Id. at 25-26. [7]Id. at 28. [8]Id. at 18-19. [9]劉家儀,美國著作權局發布AI著作權報告第三部分:生成式AI訓練-AI訓練是否構成合理使用?https://stli.iii.org.tw/article-detail.aspx?no=0&tp=1&d=9352。

歐盟執委會公布《可信賴的AI政策及投資建議》

  歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。   該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。   在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。

TOP