近年隨基因檢測技術成熟及成本下降的影響,基於醫療診斷或照護目的,而對於血液、其他體液、細胞或DNA所進行之基因檢測行為已有逐漸增多的趨勢,惟基因資訊使用本身往往容易觸及倫理、道德或法律層面的爭議,導致專業醫療人員在實際為檢測時容易產生法規遵循上的困難;因此,若能有明確的程序或標準可供依循,將能大幅增進基因檢測技術的商業運用價值。
1. 有鑑於此,三個英國醫療團體-英國皇家內科醫學院(Royal College of Physicians)、英國皇家病理科醫學院(Royal College of Pathologists)及英國人類遺傳協會(British Society for Human Genetics)於今(2011)年9月聯合公布了一份『診療性基因使用行為的同意及秘密性:基因檢測及基因資訊的分享指引』報告書(Consent and confidentiality in clinical genetic practice:Guidance on genetic testing and sharing genetic information)。該建議書之主要目的即在於指引醫療人員在使用基因資料及樣本時,應如何遵循相關的法律規範,包括1998年資料保護法(the Data Protection Act of 1998)及人類組織法(the Human Tissue Act)等;內容上則涵蓋病患同意、基因醫療行為、家族史與醫療資訊的秘密性,以及當病患所提供之基因樣本可能作為研究用途時,應如何告知等事項。
建議書中特別強調當病患選擇接受基因檢測以獲得更好的診療建議時,基因資訊也開始對病患個人及其家族成員帶來的風險。基此,該報告對基因檢測行為提出三項主要建議:1. 基因檢測所得到的家族史及診斷資訊只有在其他家族成員出現健康照護(healthcare)需求時,才能進行共享,且必須在醫療人員不違反保密義務的前提下進行。2. 醫療人員應當告知病患包括基因調查對其近親屬的潛在好處、部分基因訊息可能會提供給家族親屬、基因檢測可能會得到不確定或非預期的發現、其所提供之樣本及基因資訊將如何被運用,以及該樣本若對於該類型之檢測具有相當重要性時,其檢測結果可能會被收錄於國家資料庫以作為未來醫療研究之用。3. 由於醫療干預行為可能會導致基因診斷(genetic diagnoses)結果的改變,所以應該由病患本人或專業醫師直接告知其親屬,此誤差所可能導致的遺傳風險(例如血友病患者的基因診斷結果發生誤差,可能導致其近親屬生下患有血友病的下一代)。
目前基因檢測技術雖已趨向商業化及普及化發展,但由於基因訊息一般被界定為個人隱私資訊,因此在使用、分享及儲存上有相當之限制規範,並造成醫療人員遵循上的難度。而英國皇家內科醫學院等三個醫療團體所公佈的這份指引建議書,在內容上聚焦於告知病患的程序及病患的同意,同時擬定明確的流程圖及同意表格供各醫療人員參考使用,相信對於未來英國基因檢測技術的普及化會有相當正面之幫助。
本文為「經濟部產業技術司科技專案成果」
日本著作權法第2條第1項第1款規定對著作物定義中,創作性之表現必須為具有個人個性之表現,日本對於無人類行為參與之人工智慧創作物,多數意見認定此種產品無個性之表現,非現行著作權法所保護之產物。人工智慧之侵權行為在現行法的解釋上,難以將人工智慧解釋其本身具有「法人格」,有關人工智慧「締結契約」之效力為「人工智慧利用人」與「契約相對人」間發生契約之法律效果。日本政府及學者對人工智慧之探討,一般會以人工智慧學習用資料、建立資料庫人工智慧程式、人工智慧訓練/學習完成模型、人工智慧產品四個區塊加以探討。日本政策上放寬著作權之限制,使得著作物利用者可以更加靈活運用。為促進著作之流通,在未知著作權人之情況下,可利用仲裁系統。在現今資訊技術快速成長的時代,面對人工智慧的浪潮,日本亦陸續推出相關人工智慧研發等方針及規範,對於爾後之發展值得參酌借鏡。
淺析英國建築能源效率政策—Green Deal之融資運作政策研究 德國聯邦法院裁判臉書之Find Friends功能違法德國消費者組織聯盟(Federation of German Consumer Organisations , 以下簡稱VZBV)針對臉書(Facebook)的”find friends”功能向該公司發出警告信。臉書的”Find friends”功能為使用者先在該社群網站上輸入自己的email後,再選擇其與朋友的聯繫管道,如yahoo信箱、skype等。臉書將儲存使用者所上傳的聯絡人資訊,並用以協助使用者尋找朋友,或者透過居住地、學校、工作場所等搜尋要件,協助使用者找尋好友。然而,在臉書未有任何修正的情況下,VZBV向柏林地方法院控告臉書並獲得勝訴,之後臉書向上訴法院提起上訴,但於2014年01月24日遭到駁回。2016年01月14日,德國聯邦法院維持下級審法院判決,裁判臉書的” Find friends”功能牴觸德國隱私權保護與消費者保護之法律。 (一)德國聯邦資料保護法(Bundesdatenschutzgesetz,BDSG) 法院認為該項功能違反德國聯邦資料保護法,蓋因臉書未能在收集或利用使用者以及非使用者的資料前,事先取得其同意。此外,臉書的契約條款中亦未提供使用者適當程度的通知,讓使用者知道他們的資料將會被如何使用。 (二)德國不正競爭防制法(Gesetz gegen den unlauteren Wettbewerb, UWG) 法院認為,臉書在利用使用者資料並且寄發廣告郵件給非臉書會員時誤導使用者,讓使用者以為這個功能是受到限制的,亦即使用者誤認僅有其臉書上的朋友才在搜尋範圍之內。然而,臉書實際上更寄發邀請廣告郵件給其他非臉書的使用者。由於德國不正競爭防制法第五條第一項規定,採取引人錯誤的交易行為,其行為構成不正當。此外,該法第七條亦規定,具訊息之廣告,其掩飾或隱匿委任傳送此訊息之發送人的身分, 即被視為不合理之煩擾。又以不合理之方式來煩擾市場參與者之交易行為,不得為之。因此,其被認定構成德國不正競爭防制法第五條”引人錯誤的交易行為”以及第七條"不合理之煩擾"。 本案從2010年開始直至聯邦法院裁判結果出爐前,”find friends”功能已有修正,然而VZBV認為這些修正並不足夠。在2016年的這份裁判出爐後,facebook將如何修正及調整商業模式,以符合德國法律之規定值得持續關注。此外,許多社群網站如LinkedIn亦有類似功能,該裁判結果對於這些網站的商業運作,將造成如何的影響亦應持續追蹤。
英國發布著作權與人工智慧報告書與影響評估英國發布著作權與人工智慧報告書與影響評估 資訊工業策進會科技法律研究所 2026年04月09日 英國政府於2026年3月18日依據《資料使用與存取法》(Data (Use and Access) Act 2025,下稱DUAA)第135條及第136條之法定義務,發布《著作權與人工智慧報告書》(Report on Copyright and Artificial Intelligence,下稱「報告書」)[1]及《著作權與人工智慧影響評估》(Copyright and AI Impact Assessment,下稱「影響評估」)[2]兩份官方文件。前揭文件係英國政府對人工智慧(Artificial Intelligence,下稱AI)使用著作權作品所進行之全面性政策評估,並對英國在AI著作權的修法路徑造成實質影響,使政府原先屬意的修法路徑被迫暫停推進。 壹、事件摘要 英國政府自2024年12月17日起展開「著作權與人工智慧」公開意見徵詢,徵詢期間至2025年2月25日止,共計收到11,520份回應。回應者涵蓋著作權人、創作者、AI模型開發者、學術研究機構、文化遺產機構及法律專業人士等,惟各自占比並未揭露。基於DUAA第135條及第136條之法定義務,英國政府須於法案通過後九個月內完成相關報告,遂於2026年3月18日同步公布「報告書」及「影響評估」。 報告書之主軸在於評估四大政策選項:選項0(維持現狀)、選項1(強化著作權保護)、選項2(廣泛資料探勘例外)、選項3(資料探勘例外附加選擇退出機制)。徵詢結果顯示,英國政府原傾向推動之「選項3」(附選擇退出之廣泛例外),在逾萬份回應中僅獲約3%之支持率,致使政府不得不重新審視其政策立場。 貳、重點說明 一、《資料使用與存取法》之立法脈絡 AI訓練資料可能涵蓋大量受著作權保護作品,如何權衡創作者權益與AI創新的效益,是目前各國所面臨的核心挑戰。此部分涉及各國著作權法規是否允許AI在未經授權的情況下利用著作權保護之作品,各國對此採取不同立場,相關法制爭議至今仍未有定論。英國係於《著作權、設計及專利法》(Copyright, Designs and Patents Act 1988,下稱CDPA)第29A條[3]設有文字及資料探勘(Text and Data Mining,下稱TDM)例外,意即資料使用者得於特定條件下,對其可合法取用之著作進行自動化分析而不構成侵權。惟其適用範圍僅限於「非商業研究目的」,使得AI業者在商業訓練場景中難以援引此一例外。 為解決前述挑戰,英國提出四種政策方向並徵詢公眾意見,其結果可見於「報告書」及「影響評估」。以下針對此四種政策選項進行說明。 二、四大政策選項之比較分析 (一)選項0:維持現狀 選項0係維持英國現行著作權法架構,AI業者原則上須就使用著作權作品取得授權,僅得於CDPA第29A條非商業研究之例外範圍內進行TDM。影響評估指出,現行制度對著作權人之保護在理論上尚稱完備,然受限於AI訓練資料來源缺乏透明度,著作權人實際上難以知悉其作品是否遭擅自使用,舉證更屬不易,致使授權機制形同虛設。此外,若境外AI業者以海外訓練之模型輸入英國市場,英國著作權人之權益亦難以獲得有效保障。 (二)選項1:強化著作權保護 選項1主張進一步強化著作權保護,要求所有AI訓練使用之材料均須取得授權,包括境外AI模型輸入英國市場時,亦須證明已依英國著作權法取得合法授權。就創意產業而言,此選項能更有力保障著作權人之財產權,並使其得從AI訓練中獲得合理報酬;然對AI業者而言,合規成本之提高將增加訓練門檻,可能壓抑英國本土AI產業之競爭力。影響評估亦指出,此選項下AI服務成本或轉嫁至終端用戶,影響政府及企業之AI採用率。選項1獲得了最高的支持度,有81%回應者贊同此一制度。 (三)選項2:廣泛TDM例外 選項2主張設立廣泛TDM例外,使AI業者無論商業或非商業目的均可對合法取得之資料進行探勘與訓練,無需逐一取得著作權人授權。此一制度係參考日本著作權法第30條之4。該條文指出,只要目的非在「享受著作物所呈現之思想或感情」原則上均可免授權使用,意即資料分析、資料蒐集與AI訓練等基於「情報解析」行為皆屬TDM例外範疇。 選項2雖有助於降低AI業者法遵成本並提升英國AI研發之國際競爭力,然創意產業普遍擔憂,廣泛例外將使生成式AI大量學習創作者作品,卻無需給付任何報酬,且可能產出直接競爭於原著作人之內容,嚴重侵蝕其市場利益。此選項僅有極少數回應者支持,如OpenAI、Anthropic等大型AI公司。 (四)選項3:TDM例外附加選擇退出機制 選項3原先為英國政府屬意推動的政策選項,亦與歐盟《數位單一市場著作權指令》(DSM Directive)第4條[4]之商業TDM例外架構相近,其核心設計係為原則上允許AI業者對合法取得之資料進行TDM,但著作權人得透過技術手段(如robots.txt)明確保留其權利(即選擇退出機制)。 然而,此選項在公開意見徵詢中僅獲約3%之支持率,其主要爭議在於:對創作者而言,選擇退出機制實質上將著作權保護之責任轉嫁至個人,中小型的創作者往往缺乏必要之技術能力或資源執行退出操作;並非所有爬蟲程式均遵從robots.txt協議;跨境訓練亦難有效管制。此外,在欠缺揭露義務的前提下,創作者仍無從知悉其作品是否遭侵權使用。 三、訓練資料透明度要求 報告書顯示,逾90%之意見回應者認為AI開發者應揭露訓練資料來源,惟各方對於揭露顆粒度(granularity)之要求存在明顯分歧:著作權人傾向主張細緻揭露至個別作品層次;AI業者則認為高層次概括揭露即已足夠。 就國際立法例而言,歐盟《AI法》(AI Act)第53條[5]第1項第4款已要求AI模型提供者製作並公開訓練內容摘要;美國加州亦已制定《生成式AI訓練資料透明度法》(Generative Artificial Intelligence: Training Data Transparency Act)。[6]英國雖無相關法定揭露義務,但在報告書中表示將持續監測其他國家透明度規範之實施效果,並與業界合作制定訓練資料揭露之最佳實務,以期為著作權人提供更有效之權利主張基礎。 參、事件評析 公眾諮詢的結果顯示,尋求著作權保護與AI創新發展的平衡點極具挑戰性。由於引起及大的社會反彈,英國政府被迫放棄「TDM例外附加選擇退出機制」之規劃,然而未來是否會徹底走向「強化著作權保護」仍未可知。然而,在本次諮詢中,有90%之回應者支持AI訓練資料透明度要求;歐盟AI法、美國加州生成式AI透明度法均課予AI業者一定程度的訓練資料揭露義務。從此觀之,縱使著作權人與AI業者之間存有諸多重大分歧,但透明度要求是目前雙方的共識基礎。 我國現行法制下AI訓練所遭遇到的爭議與英國類似,著作權人與AI業者的利益衝突如何化解亦為我國當前AI發展的課題。故英國經驗揭示,政策推行或法令修正宜建立多元利害關係人持續對話機制;此外,在法令、技術標準尚未成熟之情況下,業界最佳實務指引或可作為過渡性替代方案。 [1] GOV.UK, Report on Copyright and Artificial Intelligence (2026), https://assets.publishing.service.gov.uk/media/69ba692226909a14239612e4/CP2602959_-_Report_on_Copyright_and_Artificial_Intelligence_web.pdf (last visited. Apr. 9, 2026). [2] GOV.UK, Copyright and AI Impact Assessment (2026), https://assets.publishing.service.gov.uk/media/69ba68f7c06ba9576435abb0/CP2602959_-_AI_and_Copyright_Impact_Assessment_Web.pdf (last visited. Apr. 9, 2026). [3] Copyright, Designs and Patents Act 1988, legislative.gov.uk, https://www.legislation.gov.uk/ukpga/1988/48/section/29A (last visited Apr. 9, 2026). [4] Directive (EU) 2019/790, art. 4, 2019 O.J. (L 130) 92, 114. [5] Regulation 2024/1689, art. 53, 2024 O.J. (L 1689) 1, 84. [6] Bill Text - AB-2013 Generative artificial intelligence: training data transparency, California Legislative Information, https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240AB2013 (last visited Apr. 9, 2026).