2014年7月24日美國眾議院金融服務資本市場附屬委員會(House of Representatives Committee on Financial Services’ Capital Markets Subcommittee)針對新創企業啟動法(Jumpstart Our Business Startups Act,簡稱JOBS法)舉行聽證,由證券交易委員會(United States Securities and Exchange Commission,簡稱SEC)企業融資處基思‧希金斯(Keith Higgins)處長(Director of the Division of Corporation Finance)向委員會說明。
各界對於JOBS法相當重視,委員們於聽證會中提出相關疑慮,處長回應包括:
希金斯處長雖就部分疑慮進行解答,然後續仍須觀察SEC將如何完成JOBS法相關規範之制定與執行狀況。
新加坡自今年(2018年)1月5日起推動「醫療服務法案(Healthcare Services Bill)」之制定,該法案預計取代現有「私人醫院和醫療診所法(Private Hospitals and Medical Clinics Act)」。其中「國家電子醫療紀錄(National Electronic Health Record),下稱NEHR」將整合並改善國營醫療機構及非國營醫療機構兩種醫療紀錄無法互通之情形,而行動醫療及遠端醫療亦納入之。 根據目前之諮詢狀況(已於今年2月15日結束),提案單位衛生部(Ministry of Health)表示,由於現代醫療技術已趨近複雜,若能整合各醫療單位之就診紀錄,將可大幅提升醫療效率,特別是在急診的狀況下,整合過的單一病歷將可降低評估所需的時間。 而對於病患之個資方面保護,該部表示,首先,NEHR並不會蒐集全部患者的醫療參數,只有患者之核心醫療參數才會上傳至NEHR之資料庫內,此外亦不提供非醫療目的外之使用(例如就業及保險評估)。而為降低非法使用之機率,非法使用亦將處罰之。 另外為尊重病患個人之資訊自決權,NEHR亦提供了病患選擇退出機制(opt-out)以作為個資保護的最後屏障。然而該退出機制仍不同於一般的退出機制(即退出後不得蒐集、處理及利用),該機制僅禁止各醫療機構讀取該病患之醫療紀錄,但是各該機構依NHER之架構仍應將每次就診紀錄上傳之,此一設計係避免緊急情況下或病患同意讀取電子病歷時,卻無醫療紀錄可供查詢之窘境。
美國FDA擬參考PDUFA,向學名藥產業收費美國FDA官員新近對外表示,該局正考慮參考處方藥使用者付費法(Prescription Drug User Fee Act, PDUFA),研擬一套向學名藥產業收費的機制。PDUFA是美國國會在1992年所通過的法案,依據該法,生技及製藥產業向FDA支付「使用費」(user fees),FDA承諾每年達到一定的審查“業績”(performance standards),以加速新藥上市申請。 目前PDUFA的適用對象並不包括學名藥廠,鑑於歷年來學名藥上市申請案件大幅攀升,以FDA既有之人力與資源,早已無法負擔如此大量的上市審查工作。另若考量諸多知名原廠藥之專利將在未來幾年陸續到期,如不增加新的資源,FDA的學名藥審查負擔將會持續惡化。使用者付費機制若能擴及學名藥,則FDA將可獲得額外資源,用來聘用更多的專業審查人員、取得更為豐富之資料,以保障病患之權益,使其可儘速近用便宜且有效之學名藥。 雖然PDUFA在改善新藥上市審查效率方面,確實達到了政府與產業界雙贏、民眾受惠的目的,不過這套制度要擴及學名藥產業,卻遭受到學名藥業界的反對。其中最主要的疑慮來自於,在現今的審查制度設計下,提高學名藥上市審查效率的目標是否能透過使用者付費達成,殊值懷疑。蓋根據美國法律規定,學名藥廠若以原開發藥廠之專利無效為理由申請上市,應將申請上市之事實通知原開發藥廠,一旦原開發藥廠認為學名藥廠侵害其專利並提起訴訟,FDA即必須停止學名藥之上市審查。據此,學名藥業界認為,在上述問題解決前,即使PDUFA擴及適用到學名藥產業,也並未能有助於改善學名藥上市審查之效率。 總而言之,PDUFA若欲擴及學名藥產業,仍需釐清前揭疑慮並有待國會立法通過,不過,一旦使用者付費機制擴及適用於學名藥產業,則學名藥廠之藥物開發成本將會提高,我國學名藥廠如欲經營美國市場,值得注意其發展。
日本「u-Japan政策」簡介 歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。