BRCA1與BRCA2乃兩個已經被確認的基因,係用來檢測婦女是否容易罹患乳癌或卵巢癌的重要基因。在澳洲這個檢測產品是由基因技術有限公司(Genetic Technologies Limited, 以下簡稱GTL)所擁有。因檢測費用高達3,700元美金且無法有其他的檢測選擇,形成獨占。 今(2010)年3月,美國紐約聯邦地方法院(United States District Court Southern District of New York)認為BRCA1與BRCA2等人類基因乃如同血液、空氣或水的結構,屬於自然的產物,不具有可專利性,系爭專利阻礙了乳癌與卵巢癌相關研究與創新,並限制檢測的選擇性,因而作出BRCA1與BRCA2基因不具可專利性之判決。 受到美國判決之影響,今(2010)年6月澳洲的癌症之聲消費者團體(Cancer Voices),及一名患有乳癌的婦女同向雪梨聯邦法院(Australian Federal Court in Sydney)提起訴訟,希望免除GTL對於檢測乳癌與卵巢癌產品的獨占權利。主要理由包括,對人類的一部分(基因)給予專利,不但阻礙了後續研究,也會阻礙乳癌與卵巢癌治療方法的研發,更提高許多病患接受此檢測的障礙。固然專利權人得維持高檢測費用,但有別於傳統工程或技術上的專利,生物技術專利也含有高度追求人類健康之公共利益,因此握有生物技術專利者,實不應利用獨占地位阻礙的人類健康的維持與追求,阻礙醫療或治療方式的研究。 過去澳洲專利局認為自自然產物分離的基因或物質是具有可專利性的,此案若勝訴,澳洲專利局將調整原先承認自自然產物分離的基因或物質,具可專利性之見解,所以該案的後續發展值得我們關注。
歐洲藥品管理局更新利益衝突規範歐洲藥品管理局(The European Medicines Agency,EMA)於3月底至6月初陸續發布四份利益衝突範。包括「處理管理董事會利益衝突政策方針」(European Medicines Agency Policy on the Handling of Conflicts of Interests of the Management Board),將董事會自過去的利益衝突獨立出來單獨規範;並針對違反利益聲明揭露訂立「EMA科學委員會和專家違反利益衝突信賴程序」(European Medicines Agency Breach of Trust Procedure on Conflicts of Interests for Scientific Committee Members and Experts),和「EMA管理董事會違反利益衝突信賴程序」(European Medicines Agency Breach of Trust Procedure on Conflicts of Interests for Management Board Members);以及修定「處理管理董事會、科學委員會成員和專家利益衝突政策方針」(European Medicines Agency Breach of Trust Procedure on Conflicts of Interests for Scientific Committee Members and Experts)。 針對專家和管理董事會所制定的處理利益衝突規範,主要目的是確保兩者在參與EMA的活動時,不會發生與醫藥業者相關聯的利益衝突,影響EMA公正性。觀察上述規範,可以發現EMA對於專家和管理董事會兩者的規範原則相當一致,皆聚焦於增進利益衝突處理過程的強健性(robustness)、有效性(efficiency)和透明性(transparency)。分別規範的原因在於兩者功能上的區別,分述如下: 1. 專家規範層面,有鑒於在先進醫藥領域中的專家有限,缺少可替代性,因此規範目的在於兼顧公正性與專業之間的平衡; 2. 管理董事會層面,由於其主要任務為監管和決策,規範上區別成員所參與活動的程度和範圍做更為細部的規範,與專家不同,並非有利益衝突就必須迴避。 為進一步加強EMA處理利益衝突的強健性,EMA科學委員會和專家,以及管理董事會違反利益衝突信賴程序的主要規範內容為專家和管理董事會成員作出不實利益聲明時,EMA的處理程序。可區分為調查、聽證與修正三個階段,分述如下: 1.調查階段,首先調查系爭當事人是否為不實之利益聲明後,評估是否啟動違反利益衝突信賴程序; 2.聽證階段,召開聽證會,聽證系爭當事人陳述觀點。倘若確定違反利益衝突信賴,系爭當事人即自EMA除名; 3.修正階段,EMA將審查系爭當事人曾經參與科學審查案件的公正性,並評估是否進行補救措施。 雖然EMA對於專家是否確實聲明利益缺少強制力,然而仍能透過新的利益衝突機制設計,看出EMA對完善利益衝突規範的企圖,值得近來正在修訂利益衝突機制的我國學習。
以法制工具支援文化創意產業之發展與推動-文化創意產業發展法及相關配套子法 美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。 依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。 依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。 此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。 最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。