隨著去年( 93 )「臺灣地區人民法人團體或其他機構擔任大陸地區法人團體或其他機構職務或為其成員許可管理辦法」的公佈,加上行政院十月已將「敏感科學技術保護法」列為立法院第 6 屆第 2 會期優先審議法案,若是完成立法程序後,將同步對敏感科學技術以及人才登陸進行嚴密管制。 這項管理措施雖在於避免大陸不正當的挖角行為、國家核心技術及人才外流等,但是截至目前為止,限制進出的高科技人才清單至今尚未公告;即便清單公告後,相信透過第三地進出等投機方式,政府在管理上應當會疲於奔命,增加執行困難。政府發展高科技經濟理應建立「吸引留下」的環境,而非以防堵心態限制人才登陸工作,如此只會加速人才的流失、國外人才或廠商來台工作或投資之意願降低,更遑論台灣永續發展的可能。
美國醫療保險將為醫院提供鐮狀細胞疾病基因療法的創新支付鼓勵措施美國醫療保險和醫療補助服務中心(Centers for Medicare and Medicaid Services, CMS)於2024年4月10日發布了2025財年(Fiscal year 2025, Oct. 1, 2024, to Sept. 30, 2025)醫療保險醫院住院預期支付系統(Inpatient Prospective Payment System, IPPS)規則草案(proposed rule)。 考量到細胞療法費用高、可近用性低,2025財年規則草案便包含為醫院提供治療鐮狀細胞疾病(Sickle Cell Disease, SCD)基因療法,其新技術附加支付(New Technology Add-on Payment, NTAP)附加百分比從原本的65%提高到75%的創新支付措施。 NTAP方案是2001年由CMS推出,旨在激勵醫院採用新技術和新療法。NTAP規定新的醫療服務或技術必須滿足以下3個標準,才有資格獲得附加支付: 1.新穎性:醫療服務或技術必須是新的。一旦此治療已經被認為不是新技術,附加支付就會結束。 2.費用過高:醫院在使用新技術時,可能會產生成本超出標準的住院病患支付限額,該技術在現有醫療保險嚴重程度診斷相關群組(Medicare Severity Diagnosis-Related Groups, MS-DRG)系統下不足以支付。 3.實質的臨床改善:與目前可用的治療方法相比,使用該技術其臨床資料必須要顯示確實能改善特定病人群體的臨床結果。 NTAP透過提供經濟激勵,支持醫療機構在初期階段採用新技術,從而促進醫療創新並改善患者治療效果。SCD為一種遺傳性疾病,對美國黑人影響嚴重,且治療選擇有限。因此該創新支付鼓勵措施將使醫院可以獲得更多的資金來執行昂貴的SCD基因療法,進一步促進SCD病人獲得最新的治療,且能減少SCD長期醫療照護的相關成本。 本文同步刊載於stli生醫未來式網站(https://www.biotechlaw.org.tw)
加拿大公布新的企業個資保護自評工具加拿大聯邦政府與亞伯達省(Alberta)及英屬哥倫比亞省(British Columbia)的隱私委員會針對一般企業,聯合推出新的個人資料保護自我評量線上工具,該線上工具之內容包括風險管理、政策、記錄管理、人力資源安全、物理安全、系統安全、網路安全、無線、資料庫安全、作業系統、電子郵件和傳真安全、資料完整性和保護、存取控制、信息系統獲取,開發和維護、事件管理、業務連續性規劃、承諾等項目之評估測驗。 聯合制定該線上自我評量工具的隱私委員辦公室表示,該線上工具可用於任何私人組織,特別是小型及中小型企業,而且新的線上工具是針對企業為一全面性的評估,並且該評估的內容十分鉅細靡遺。另外,為了提供使用者於使用該線上工具時的靈活性,故使用者亦可以將重點放在最切合自己的企業的部分,亦即僅選擇其中一項或數項為自我評估的內容即可。 又,該線上自我評量工具會將使用者的自我評估和分析過程的結果做成結論,而使用者可以獲得該分析得出之結論,並將作成之結論用來有系統地為評估組織本身的個人資料保護安全性,並藉以提高個人資料保護的安全。
歐盟提出人工智慧法律框架草案歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。 新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。 未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。