建立基因資料庫 台灣可行

  賽雷拉( Cel-era)公司創始人溫特克萊首度來台,他是四年前完成人類基因體解碼的靈魂人物,他建議可運用基因解碼技術,建立基因資料庫,解決台灣醫療資源浪費。


  事實上,早在
20042月行政院科技顧問組為追蹤研究國人常見疾病與基因之間的關係,宣布推動「台灣疾病與基因資料庫」建置計畫。希望透過該基因資料庫的建立,確實掌握國人致病基因,奠定基因治療基礎,除了有效節省醫療資源浪費,更可鎖定特有亞洲疾病為研發重心,作為生技產業發展的優勢利基。台灣人口數約有二仟多萬,且具有完整健全的全民健保及戶籍資料,再加上台灣生物科技產業技術的蓬勃發展,想要建立大型的基因資料庫技術性應相當可行。國外有冰島和英國等多國發展之經驗可參考。


  由於涉及人權自主、個人隱私、安全保密、社會倫理、研究成果的利益分享、以及由誰來擔任執行單位等方面的爭議,加上目前國內法令規範不足,既有相關法令多為位階較低的指導性公告,確實有必要建置相關配套制度及法律,以協助該計劃落實執行與發展。

相關連結
※ 建立基因資料庫 台灣可行, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=420&no=57&tp=1 (最後瀏覽日:2026/04/06)
引註此篇文章
你可能還會想看
國際產業創新合作策略實例 – 歐盟之歐洲科技與創新機構(EIT)

澳洲詮釋自動駕駛「恰當駕駛」內涵

  澳洲國家交通委員會(National Transport Commission, NTC)2017年11月提出「國家自駕車實施指南(National enforcement guidelines for automated vehicles)」,協助執法單位適用目前道路駕駛法規於自駕車案例上。由於澳洲道路法規(Australian Road Rules)第297條第1項規範「駕駛者不得駕駛車輛除非其有做出恰當控制(A driver must not drive a vehicle unless the driver has proper control)」,此法規中的「恰當控制」先前被執法機關詮釋為駕駛者應坐在駕駛座上並至少有一隻手置於方向盤上。因此本指南進一步針對目前現行法規適用部分自動駕駛系統時,執法機關應如何詮釋「恰當駕駛」內涵,並確認人類駕駛於部分自動駕駛系統運作時仍應為遵循道路駕駛法規負責。   本指南僅提供「恰當控制」之案例至SAE J2016第一級、第二級和第三級之程度,而第四級與第五級之高程度自動駕駛應不會於2020年前進入市場並合法上路,因此尚未納入本指南之詮釋範圍之中。本指南依照採取駕駛行動之對象、道路駕駛法規負責對象(誰有控制權)、是否應將一隻手放置於方向盤、是否應隨時保持警覺以採取駕駛行動、是否可於行駛中觀看其他裝置等來區分各級自動駕駛系統運作時,人類駕駛應有之恰當駕駛行為。

美國聯邦巡迴上訴法院判決 FCC無權要求網路中立性

  2010年4月6日美國聯邦哥倫比亞巡迴上訴法院於Comcast v. FCC一案中,判決美國聯邦通訊傳播委員會(FCC)要求網路服務供應商(ISP )對所有形式資料傳輸一視同仁的「網路中立性」要求係逾越權限,有違法律保留原則。此裁判將為美國大型網路內容提供業者(ICP)的經營模式及網路使用者上網習慣投下震撼彈。   網路中立性(Net Neutrality)係指同一ISP應公平地處理所有網路服務,不得因頻寬需求而有差別待遇。查原因案件乃業者Comcast禁止某些用戶透過網路點對點(peer-to-peer)的方式,傳輸大型影音檔案,其認為用戶這種做法會佔用過多頻寬,拖累其他用戶的網路速度;FCC則認為Comcast此舉違反了網路中立性。   在判決書中,哥倫比亞巡迴上訴法院援引判決先例(stare decisis),認為立法者課予FCC必須對全美人民提供一「公平、有效率、公正分配」的廣電服務。惟本案FCC擅以立法者未明確授權的網路中立性作為規制準則,逾越其管制權限而違法。   FCC發言人Jen Howard表示:「法院沒有道理否定保障網路自由與開放的重要性,也不該阻止其他可促成這個重要目的的方法。」此判決對諸多大力提倡網路中立性的大型ICP業者,無疑是一大打擊;ISP將來也可能對消費者依照資料傳輸流量分級收費(即tiered service),形成新的網路服務發展型態。FCC目前正極力爭取立法者通過「網路中立性法案」尋求管制的合法性,後續發展值得注意。

歐盟提出人工智慧法律框架草案

  歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。   新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。   未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。

TOP