美國FDA在七月間針對多家提供大眾基因檢測服務(direct-to-consumer genetic tests, DTI genetic tests)的公司發出通知函,表示將對該產業進行規管。FDA在各通知函中明白表示,其認為收信公司所提供的基因檢測服務,符合其主管之醫療器材管理法規對於體外診斷器材(in vitro diagnostics)之定義。根據美國聯邦法律,人類用醫療器材採用分級管理的概念,在上市前必須依其風險等級進行上市前通報或申請核准,以確保其分析與臨床之有效性。FDA認為,由於這些公司的基因檢測並未依法提出上市前通報或申請核准,涉有違法之嫌。
FDA採取此項措施,明顯是為了保護消費者,避免其受到未經臨床檢驗的檢測結果之誤導。然事實上國際間對於是否透過法令、以及如何規範大眾基因檢測服務,並無一致性看法。迄今,大眾基因檢測服務在許多國家都是在法令混沌未明的狀態下銷售,也引發了許多問題。對於FDA此一政策態度,有認為以法令方式規範此種服務,將會扼殺這個還在萌芽發展終的產業;也有認為,這算是對消費者遲來的保護。
大眾基因檢測服務的管理,顯示既有法令面對新興科技發展之管理窘迫性,也代表各國政府在保護消費大眾與促進新興產業發展之間,著實不易從中找到利益權衡之點,其科技管理面臨前所未有的新挑戰。
本文為「經濟部產業技術司科技專案成果」
歐洲藥物管理局(European Medicine Agency,EMA)於今年六月下旬起至九月底止,開放接受公眾針對該局所擬「臨床試驗資料公開與近用政策」草案(draft policy on publication and access to clinical-trial data)提出回饋意見。所有公眾建言都將由EMA加以檢視,並將成為上述政策草案正式定案前之參考。原本EMA預計在2013年年底即對上述政策草案拍版定案,然而,由於歐洲藥物管理局收到超過一千則來自四面八方、不同立場之公眾回饋意見,為求妥適、深入檢視、分析這些意見,EMA原訂之定案時程將被迫遞延。新的定案時間表最慢將於十二月中上旬公布。 根據上述「臨床試驗資料公開與近用政策」草案之現行版本(亦即提供公眾評論並回饋意見之版本),原則上,EMA所持有之臨床試驗資料,將依其類型之差異而適用不同的公開或近用標準。依照EMA之分類,試驗資料將被區分為(1)「公開後不會導致個資保護疑慮之試驗資料」、(2)「如經公開,可能產生個資保護疑慮之試驗資料」、(3)「內含商業機密資訊之試驗資料」等三大類。上述第三類之「內含商業機密資訊之試驗資料」不會受到此一政策草案之影響,第二類資料將有限制的公開與提供近用,至於第一類資料,則將公開於EMA網站上供公眾下載。
柏克萊市開啟奈米科技管理規範的先河美國柏克萊﹙Berkley﹚市議會日前無異議通過既有有害物質法令修正之決議,企圖涵蓋奈米物質之情形,此其為奈米科技地方性立法之首例。此項行動迫使研究人員及製造人必須於研究或生產過程中,申報所使用的奈米材料,以及提出有效管理奈米物質的證明。 在商業世界當中,奈米科技的目標是在原子或分子層次,藉由改變或創造新的成份,以發展出新的產品及材料。不過,這些材料是否會產生環境及健康方面的問題,目前尚不得而知。 此項修正已蘊釀兩年。市府官員表示,此項法規修正主要在於監管奈米新創事業﹙startups﹚或小型企業﹙small business﹚,而非國家型實驗室﹙the national lab﹚所造成的影響,因為後者目前係由美國能源部﹙Department of Energy﹚所管理,地方法規對其並無管理權限。一開始,國家實驗室相當反對柏克萊市的這項計畫;不過,經過溝通其表示未來將繼續支持該市市府的行動。 負責柏克萊市有害物質管理事務的Nabil Al-Hadithy表示,他期許這項新法成為其他城市有效管理奈米物質的榜樣,並希望其他城市能夠將這樣類型的規範,有效運用在全加州的健康及安全法規上。
IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。
美國衛生及公共服務部提出雲端服務適用健康保險可攜與責任法之相關指引美國醫療產業使用境內或境外雲端服務(Cloud Services)急速成長,導致「健康保險可攜與責任法」(Health Insurance Portability and Accountability Act,以下簡稱HIPAA)規範下之「適用機構」(Covered Entities)與其「商業夥伴」(Business Associate),對於雲端服務業者如何適用HIPAA感到疑惑。因此,衛生及公共服務部民權辦公室(Department of Health and Human Services, Office for Civil Rights)於10月7日公布相關業者如何適用HIPAA之指引,以釐清爭議。 於該指引中,該部指出,雲端服務業者若替適用機構或是商業夥伴創造、接收、維護、傳送被HIPAA所保護之「資療資訊」(Protected Health Information),則該雲端業者就被視為HIPAA下規範之商業夥伴,原因在於該服務具有儲存與維護醫療資訊功能,非屬該法排除適用之「網路服務業者」(Internet Service Providers)資料傳輸服務類型。 該指引有幾大重點:首先,雲端服務業者如將該醫療資訊提供加密儲存服務,仍應盡到HIPAA中規範商業夥伴之責任。原因在於加密資料不足以保護HIPAA有關資訊安全章節所要求醫療資訊之「機密性、完整性和可用性」之相關規範。再者,雲端業者皆須與委託方簽署商業夥伴協議(Business Associate Agreements)。此外,使用雲端服務儲存資療資訊時,委託方皆能使用行動設備進入雲端儲存之醫療資料,但應建立合乎HIPPA所要求相關之安全措施。最後,HIPAA並未禁止將醫療資訊儲存至伺服器為於美國境外之雲端業者,但使用前應自行評估該資訊遭駭客攻擊之可能性。