NIH公布最新GWAS基因型與表現型數據資料庫分享近用方針

  經過了一整年向各界諮詢與彙整各方意見後,美國國家衛生研究院(NIH)於今年8月底,公布其所資助之GWAS基因型與表現型數據資料庫(genotype-phenotype datasets)之分享近用方針。此方針希望在保障研究參與者的個人隱私前提下,協助科學研究社群取得相關基因數據資料。GWAS數據資料對科學有顯著的幫助,並具有龐大的潛在公共利益,然而,提供個人的基因型與表現型資料進行科學研究,涉及個人隱私與秘密之保護,故具有高度的敏感性而受到大眾關切。

 

  因此,NIH在訂定這項方針時,為了搜集各方意見,首先於去年5月,宣布計畫更新GWAS的數據資料分享政策,後於去年8月公開徵詢大眾對方針之意見,次又依據所蒐集之各方意見,於去年12月針對此分享政策舉辦會議進行討論,根據這些討論所形成之共識,併同NIH內部討論之結果,最後形成此項分享政策。

 

  方針中指出,如何在促進科學研究之目的,與保護相關參與人的權利間取得平衡,是相當重要的議題,故本方針分別對研究人員近用之程序、基因數據資料的處理與參與者權利之保護進行詳細規範。舉例來說,本方針要求欲近用資料庫的研究人員,提供其研究必須使用此資料庫的書面說明資料;另外也會對所有存放在資料庫的數據資料進行去個人化處理,使該項資訊無法再以技術判別,並使用隨機方法加密,以確保參與者的隱私與保密資料不遭外洩。根據NIH表示,此方針雖然僅是對GWAS數據資料庫的近用作規範,但未來亦有意將其作為近用其他類似資料庫的規範參考架構。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ NIH公布最新GWAS基因型與表現型數據資料庫分享近用方針, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2365&no=55&tp=1 (最後瀏覽日:2026/03/07)
引註此篇文章
你可能還會想看
從交易成本概念談智慧財產資訊揭露的原則與效益

歐盟國會通過頗受爭議之「反仿冒貿易協定(ACTA)

  在歷經多次談判會議,由包括美國、歐盟、日本、韓國等11個國家共同參與的「反仿冒貿易協定(Anti-Counterfeiting Trade Agreement, 簡稱ACTA)」,終於在雪梨展開的最後談判回合(11月30日-12月4日)中獲得共識,並於日前正式對外發布ACTA協定文本內容。   該協定旨在透過跨國境的國際合作,有效打擊日益猖獗的盜版及仿冒問題,全文共計6章45條文,包括民、刑事執行、邊境措施等,且因應數位化時代對智慧財產權保護所帶來的衝擊,針對數位化環境智慧財產權的執行措施,也有相對應的規定(section 5: Enforcement of Intellectual Property Rights in the Digital Environment)。而ACTA協定文本尚須提交各簽約國政府或國會表決同意的程序,方能生效。   以歐盟為例,儘管遭受歐盟境內廣大的批評聲浪,歐盟國會於11月24日以驚險的半數通過爭議許久的「反仿冒貿易協定(Anti-Counterfeiting Trade Agreement, ACTA) 」。歐盟國會宣稱,透過ACTA協定的簽署,以國際合作的方式,將有助於解決現今猖獗的侵權問題,以落實智慧財產權的保障。尤其是針對歐盟境內的地理標誌(如Champagner、Spreewald-Gurken),未來將可透過跨國合作,提升對歐洲企業的保護。雖然現階段仍有許多問題未能達成共識,但至少ACTA協定啟動各國合作打擊仿冒的開端。   不過,雖然歐盟執委會一直以來對外“消毒“, ACTA協定的簽署前提是在符合歐盟現行法規的基礎上,並且不會對歐盟人民的基本權、個人隱私權保障造成威脅。但包括電子通 訊傳播業者(e-communications providers)、無疆界醫師組織等團體,都發表聲明,要求歐盟國會確保ACTA協定落實於各會員國內,不會影響改變歐盟既有的法制規範。包括是否引進三振條款,透過網路封鎖手段遏止侵權行為、是否以刑事手段制裁侵權人等爭議,勢必在各歐盟會員國提交其國會表決時,將引起極大的討論。

歐盟「開放網路規則」實施指引

  歐盟會員國電子通訊傳播監理機關組織(Body of European Regulators for Electronic Communications, BEREC)於2016年8月公布「歐盟會員國網路中立規則監理機關執行指引」(BEREC Guidelines on the Implementation by National Regulators of European Net Neutrality Rules)。本執行指引係依歐盟於2015年11月通過之「有關開放網路近用並修正全球服務與使用者有關電子通訊網絡與服務之第2002/22/EC號指令以及於歐盟境內於公用行動通訊網絡進行漫遊之第531/2012號規則」的第2015/2120號規則(下稱「開放網路」規則)第5條第(3)項所訂定,用以作為歐盟各會員國相關監理機關於實施「開放網路」規則時之參考依據。   以網路中立性所蘊涵之不歧視原則為例,「開放網路」規則第3條第3項第一段規定,「網際網路近用服務提供者於提供相關服務時,對所有流量應平等對待(treat all traffic equally),而無歧視、限制、或干擾,且亦不論係對於發送方與接收方、所近用或散布之內容、所使用或提供之應用或服務、或所利用之終端設備」。對此,執行指引明確表示,不歧視原則是網際網路服務提供者在提供網路近用服務時之義務,且對於本項之違反,亦將同時構成對於終端使用者受「開放網路」規則第3條第1項所保障權利之侵害。不過執行指引也強調,各會員國相關監理機關應該注意到,所謂的「平等對待」不必然意味著所有終端使用者都將體驗相同的網路效能或服務品質。

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

TOP