歐盟執委會於2020年4月7日發起ERA vs CORONA行動計畫,透過歐洲研究區(European Research Area, ERA)全力支持歐洲科研合作、共享科學資訊,並給予歐洲研究團隊與企業充足的研發疫苗資金,用以對抗COVID-19。歐盟執委會已與各國達成共識,確認ERA vs CORONA行動計畫的10項優先行動: 協調各國研究與創新(Research and innovation, R&I)資金投入,專注研發新型冠狀病毒的疫苗與治療方法,加強創新合作模式以對抗疫情。 支持新型冠狀病毒患者的臨床管理,與歐盟大規模臨床實驗計畫。 將資金投入創新領域回應社會需求,關注疫情對社會經濟、醫療及資通訊技術應用、衛生系統及製造業的影響。 藉由Horizon 2020 增加對新創公司的研發財務支持;拓展歐洲創新委員會ePitching計畫(EIC ePitching),鼓勵公私夥伴共同尋求解決方案。 創造資金來源促進R&I行動,引導新創及中小企業申請國家及地方資金、私人基金會、投資歐洲計畫(Invest EU)等。 建立ERA Corona平台,提供研發資金相關的一站式服務,包括歐盟各國補助新型冠狀病毒R&I計畫的完整資訊。 設立新型冠狀病毒特設高階R&I工作小組,規劃歐盟中長期防疫措施。 加強研究基礎設施布建及跨國資料庫利用。 創建歐洲COVID-19研究資料共享平台 ,連接歐洲開放科學雲,允許快速共享研究資料及成果以加速研發、公平分享資訊。 舉辦泛歐黑客松(EU vs Virus)推動歐洲創新與社會交流。
國際間科學專家利益衝突管理規範趨向-以美、歐藥品審查機構科學諮詢委員會專家利益衝突解決政策與機制為例 中國大陸強制醫療所草案 規範肇事精神病患中國大陸國務院法制辦公室於105年6月擬訂強制醫療所條例草案《送審稿》(下稱本草案),規範對肇事精神病患的管制制度,並將本草案全文公布,徵求各界意見,本草案通過後將以行政法規形式公布。 依據中國大陸政府於105年6月12日官方網站聲明,中國大陸刑法規定肇事精神病患在不能辨認或者不能控制自己行為時造成危害結果,經法定程序鑑定確認者,不負刑事責任,但應當責令其家屬或者監護人嚴加看管和施予醫療;在必要的時候,由政府強制醫療。但修訂後的中國大陸刑事訴訟法實施以來,各地區適用強制醫療措施標準不一,導致由該制度所生之社會效果與法律效果並不明顯。因此本草案強調強制醫療所的性質是執法機關,不是單純的醫療機構,但醫療是實現強制措施的必要手段,也是強制醫療所的重點工作。 謹就本草案制定重點整理如下: 一、強制醫療所的設置 第七條第一款規定,強制醫療所的設置原則,由省、自治區、直轄市政府根據實際需要規劃設置。第二款規定市、州、盟如需設置強制醫療所,應提報所屬省、自治區政府批准。 二、醫療工作模式 第十條規定,強制醫療所應當設有相應的醫療機構,並依照醫療機構管理條例及國家相關規定開展診療活動。 三、強制醫療的解除 第三十七條規定,經診斷評估,被強制醫療人員病情穩定,已不具有人身危險性,不需繼續強制醫療者;或被強制醫療人員因嚴重身體疾病、傷殘或年老體弱致使日常生活不能自理,而不具有人身危險性,不需繼續強制醫療者,醫療院所應當提出解除強制醫療的意見,呈報做出強制醫療決定的法院批准,同時抄送同級檢察院。 四、臨時請假回家制度 第二十五條規定臨時請假回家之要件。被強制醫療人員須同時具備被強制醫療達半年以上、經診斷病情明顯緩解、其監護人或近親屬書面擔保履行看護、治療、安全及按期送回強制醫療所之責任、經強制醫療所出具准假證明,同時強制醫療所應向做出強制醫療決定之法院報備等要件。 五、患傳染病、嚴重身體疾病被強制醫療人員所外就醫 第三十三條規定,被強制醫療人員因罹患傳染病或嚴重身體疾病,而強制醫療所不具備治療條件,須轉送其他醫療機構治療者,強制醫療所應於發現後立即提出所外就醫意見,並報公安機關審批。經核准移送其他醫療院所,強制醫療所應即通知監護人、近親屬,並通知做出強制醫療決定之法院及同級檢察院。 六、收治被採取臨時保謢性拘束措施的精神病人 第四十五條規定,被公安機關依法採取臨時保謢性拘束措施的精神病人,可以在強制醫療所執行醫療行為。
日本內閣府公布生成式AI初步意見彙整文件,提出風險因應、應用及開發兩大關注重點日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論: 一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。 AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。 二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。