解析生技製藥研發成果涉及智慧財產保護之新課題

刊登期別
第20卷,第12期,2008年12月
 

本文為「經濟部產業技術司科技專案成果」

※ 解析生技製藥研發成果涉及智慧財產保護之新課題, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2951&no=57&tp=1 (最後瀏覽日:2026/01/27)
引註此篇文章
你可能還會想看
歐盟執委會通過關於《人工智慧責任指令》之立法提案

  歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。   《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。   歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。

美國白宮發布國家生物經濟藍圖

  美國白宮終於2012年4月26日正式發布「國家生物經濟藍圖」(National Bioeconomy Blueprint),宣告未來美國將以生物技術為首的投資、研究與商業經濟活動列為優先支持的對象。近年來美國苦思於如何在國內經濟成長疲軟與失業問題上尋求解套,而有鑒於全球「生物經濟」(Bioeconomy)的快速崛起,歐巴馬政府遂寄望於生物經濟,期望藉由支持生物技術的研究創新與商業活動,帶動國內投資、提升就業率及經濟成長,並仰賴生物科技的發展增進國民福址。因此,白宮科學與技術政策辦公室(The White House's Office of Science and Technology Policy, OSTP)便於2011年10月起開始向生物醫藥、生物科技相關產業及研究機構徵集意見,歷經半年的規劃,始產出此部發展藍圖。   國家生物經濟藍圖首先劃定生物經濟的五大趨勢,包括:健康、能源、農業、環境及知識技術的分享。其次揭示了未來美國生物經濟的五大發展策略目標及其具體作法: (一)支持各項研發投資以建立生物經濟的發展基礎: (1)強化生物技術的各類研究發展,如生物醫藥、生質能源、生物綠建築、生物農業等 (2)實施新的補助機制以使得生物經濟投資達最大化,例如國家科學基金會於2012年推動的CERATIV(Creative Research Awards for Transformative Interdisciplinary Ventures)獎補助計畫。 (二)促進生物技術發明的市場應用與商業化: (1)加強生物醫藥的轉譯及管制科學(translational and regulatory science)發展; (2)由國家衛生研究院(National Institutes of Health,NIH)及食品藥物管理局(Food and Drug Administration,FDA)等相關主管機關主動檢視、調整既有法規,以加速生物技術成果的商業化(如生物醫藥的上市)。 (三)改革並發展相關規範,以減少法規障礙、增加規範程序的效率與可預測性: (1)減少可能影響生醫產業發展的法規障礙; (2)對於低風險的醫療裝置,降低其遵循法規的成本負擔; (3)由食品藥物管理局等相關主管機關,對於醫藥產品採行雙向規範審查(Parallel Regulatory Review),以減少產品上市時間。 (四)更新相關國家人才培訓計畫,並調整學術機構對學生訓練的獎勵機制,以符合國家與產業發展的勞動需求。 (五)支持公私夥伴及競爭前合作(Precompetitive Collaborations)關係的發展:由國家衛生研究院及食品藥物管理局等相關主管機關鼓勵、支持公私或私人部門間形成夥伴關係,共同針對生物醫藥及食品安全進行創新研究發展。   由「國家生物經濟藍圖」對美國未來生物經濟發展的策略及具體做法看來,其內容相當廣泛,從促進各種生物技術的研發投資、生技成果商業化運用、產品上市管制鬆綁、科技人員培育,再到公私部門合作的增進,完整涵蓋了整個生物技術產業發展的各個必要環節,雖已點出生物技術產業發展有待突破之處,但對於其具體法規與配套機制,仍有待日後一一落實。因此,未來本藍圖將如何形塑美國各領域生物技術產業的輪廓,並影響法規與促進機制之細節,值得持續觀察之。

澳洲主管機關起訴Google違法誤導客戶同意使用個資

  2020年7月澳洲競爭及消費者委員會(Australian Competition and Consumer Commission, ACCC)正式對Google提告,針對Google於2016年的一項個資改變政策的內容,以誤導的方式取得用戶同意,而擴大使用個資範圍的行為。   於2016年,Google希望透過在其帳戶中所取得的個資,連結到用戶在非Google網頁中的瀏覽紀錄,如此Google將能夠依據這些資訊,更準確的在其他網站中投放廣告,以提升廣告費收入。為結合用戶於Google及其他網站的資料,Google需更改原本的個資隱私政策,然而事實上Google並沒有實際取得用戶對於此項改變的同意,反而以類似服務改進的通知:「我們為您的帳戶加入了一些可選擇性的功能,讓您能更好掌控Google所蒐集的資訊及使用方式,同時允許Google向您展示相關的廣告」等文字,誤導用戶藉以徵得用戶對個資政策改變的同意。   雖然Google承諾於2022年後,逐步移除Chrome瀏覽器中第三方Cookie的啟用,此動作將會阻止其他網站透過網路,追蹤到Google用戶的瀏覽紀錄,但由於目前Google還是依據用戶的瀏覽紀錄,針對用戶的特定偏好投放廣告來賺取收益,因此這種廣告模式短期內不太可能有所改變。若ACCC在這次與Google的訴訟中勝訴,那表示未來業者對於取得客戶同意(包括收集使用個資)的方式,從原本習慣使用概括性描述並隱藏使用個資真正目的等用語,來取的客戶同意的模式將有所改變。

澳洲於9月初生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government)

2024年9月1日,澳洲生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government,下稱政策)。澳洲數位轉型局(Digital Transformation Agency,以下稱DTA)提出此政策,旨於透過提升透明度、風險評估,增進人民對政府應用AI的信任。 1. AI之定義 此政策採經濟合作暨發展組織(OECD)之定義:AI系統是一種基於機器設備,從系統接收的資訊進而產出預測、建議、決策內容。 2.適用範圍 (1)此政策適用於「所有非企業的聯邦個體(non-Corporate Commonwealth entities, NCE)」,非企業的聯邦個體指在法律、財務上為聯邦政府的一部分,且須向議會負責。此政策亦鼓勵「企業的聯邦實體」適用此政策。 (2)依據2018年國家情報辦公室法(Office of National Intelligence Act 2018)第4條所規定之國家情報體系(national intelligence community, NIC)可以排除適用此政策。 3.適用此政策之機構,須滿足下列2要件 (1)公布透明度聲明 各機構應在政策生效日起的6個月內(即2025年2月28日前)公開發布透明度聲明,概述其應用AI的方式。 (2)提交權責人員(accountable official,下稱AO)名單 各機構應在政策生效日起90天內(即2024年11月30日前)將AO名單提供給DTA。 所謂AO的職責範圍,主要分為: I.AO應制定、調整其機構採取之AI治理機制,並定期審查、控管落實情況,並向DTA回報;鼓勵為所有員工執行AI基礎知識教育訓練,並依業務範圍進行額外培訓,例如:負責採購、開發、訓練及部署AI系統的人員,使機構內的利害關係人知道政策的影響。 II.當既有AI 應用案例被機構評估為高風險AI應用案例時,通知DTA該機構所認定之高風險AI應用案例,資訊應包括:AI的類型;預期的AI應用;該機構得出「高風險」評估的原因;任何敏感性資訊(any sensitivities)。 III.擔任機構內協調AI的聯絡窗口 IV.AO應參與或指派代表參與AI議題之政策一體性會議(whole-of-government forums)。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

TOP