我國生物與遺傳資源權利歸屬及管理思維初探

刊登期別
第19卷,第1期,2007年01月
 

本文為「經濟部產業技術司科技專案成果」

※ 我國生物與遺傳資源權利歸屬及管理思維初探, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2101&no=67&tp=1 (最後瀏覽日:2025/11/24)
引註此篇文章
你可能還會想看
日本國交省公布「基礎建設之數位轉型政策」,期望建構更有效率、安全之社會環境

  日本國土交通省(下稱「國交省」)於2021年2月9日公布「基礎建設之數位轉型政策(インフラ分野のデジタル・トランスフォーメーション施策)」。此報告係國土交通省基礎設施DX推進本部(国土交通省インフラ分野のDX推進本部)於2021年1月所舉行第三次會議所彙整之政策方針。   針對基礎設施數位轉型之政策實施主要分為四個面向:第一部分強調透過行政程序數位化及網路化,藉以提升效率並加強管理效能,並且提供運用數位生活中各項服務,以增加生活之便利與安全。第二部分說明為實現安全與舒適之勞動環境,減少人工作業之負擔,未來欲活用AI與機器人,使施工作業與技術建設達到無人化,並透過數位化提高專業技術學習效率以培育相關人才。第三部分聚焦於調查、監督檢查領域,如公路、鐵路、河川及機場之檢修,利用資料分析與自動化機械提升日常管理及檢修效率。最後,為順利推行以上數位轉型政策,必須建構能支援數位化的社會。因此,未來除須結合智慧城市(スマートシティ)等數位創新政策,利用資料以具體化社會課題之解決方針外,亦須針對作為數位轉型基礎之3D資料進行環境整備,以利數位轉型之推動。

國際再生能源總署針對各國實施「綠氫憑證」提出建議報告

  國際再生能源總署於(International Renewable Energy Agency, IRENA)2022年3月13日發布「能源終端使用部門:綠氫憑證」(Decarbonising End-use Sectors: Green Hydrogen Certification)研究報告,說明綠氫的部屬與使用,以及國家、區域與國際綠氫市場的發展將取決於追蹤制度的建立與接受程度。   太陽能或風電等再生能源將水電解為氫氣與氧氣後,可轉換為氫能,且因產氫過程不排碳,故此類氫能稱為綠氫。為降低溫室氣體排放、解決溫室效應與極端氣候等問題,綠氫與來自綠氫的合成燃料,在追求減少碳排放的能源轉型中扮演關鍵地位。   該報告概述了綠氫憑證制度的技術考量以及創建此類工具所需面臨的挑戰,並對政策決策者提出關鍵建議,旨在建立具備國際認證標準的綠氫追蹤制度——綠氫憑證。   綠氫憑證是指生產設備業者、貿易商及供應商等能源市場參與者,向國際再生能源憑證相關組織或當地政府登記取得其生產過程中所使用的能源來自於綠氫之證明。消費者可以透過該憑證識別綠氫的來源,並可行使相關權利。   為確保綠氫憑證及其追蹤制度達成綠氫行業既定脫碳目標,該報告提出十點建議:(1)明確「綠氫」之定義;(2)建立標準,確保綠氫電力生產來源安全可靠;(3)確保憑證能為消費者及決策者提供足夠資訊;(4)簡化行政程序,減少行政負擔;(5)實施具備成本效益的憑證追蹤制度;(6)建立適當的控制機制避免濫用或缺乏透明度;(7)應考量結合既有制度;(8)避免跨國交易時重複頒發不同國家之憑證(9)利用綠色金融標準鼓勵遵守憑證要求;(10)促進國際合作,建立全球共通之標準與規則。

歐盟執委會通過關於《人工智慧責任指令》之立法提案

  歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。   《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。   歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。

世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧

世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。

TOP