美國白宮科技政策辦公室(Science and Technology Policy, OSTP)在2020年1月6日公布了「人工智慧應用監管指南(Guidance for Regulation of Artificial Intelligence Applications)」,提出人工智慧(AI)監管的十項原則,此份指南以聯邦機構備忘錄(Memorandum for the Heads of Executive Departments and Agencies)的形式呈現,要求政府機關未來在起草AI監管相關法案時,必須遵守這些原則。此舉是根據美國總統川普在去(2019)年所簽署的行政命令「美國AI倡議」(American AI Initiative)所啟動的AI國家戰略之一,旨在防止過度監管,以免扼殺AI創新發展,並且提倡「可信賴AI」。
這十項原則分別為:公眾對AI的信任;公眾參與;科學誠信與資訊品質;風險評估與管理;效益與成本分析;靈活性;公平與非歧視;揭露與透明;安全保障;跨部門協調。旨在實現三個目標:
一、增加公眾參與:政府機關在AI規範制定過程中,應提供公眾參與之機會。
二、限制監管範圍:任何AI監管法規實施前,應進行成本效益分析,且機關間應溝通合作,建立靈活的監管框架,避免重複規範導致限制監管範圍擴大。
三、推廣可信賴的AI:應考慮公平性、非歧視性、透明性、安全性之要求,促進可信賴的AI。
這份指南在發佈後有60天公開評論期,之後將正式公布實施。白宮表示,這是全球第一份AI監管指南,以確保自由、人權、民主等價值。
「促進整合產官學共同研究的大學概況調查書(産学官共同研究におけるマッチング促進のための大学ファクトブック)」為日本經濟產業省與文部科學省所共同設置的「促進創新產官學對話會議」議定後向外提出,期待藉此使企業更容易理解大學的產官學合作現狀,進一步實現正式的產官學連攜活動。 該概況調查書的先行版中收集整理了各大學整合產官學連攜的實績等資訊,2018年發布的正式版則統整日本327所大學的情報,擴充並更新了該概況調查書的內容,包含:1.產學連攜相關的聯絡窗口資訊等;2.產官學連攜活動的配套方針與往後期待重點化的事項;3.產學連攜之本部機能的相關情報;4.面向正式共同研究的配套措施,如平均交涉期間、跨領域型共同研究;5.各大學之專精領域及其實例;6.資金、資產及智慧財產相關連的持有使用狀況;7.大學發起的創投事業數及其支援體制;8.混合僱用制度的狀況。
韓國發布藥價制度改善方案兼顧創新補償與學名藥結構改革韓國保健福祉部(The Ministry of Health and Welfare, MOHW)於2025年11月28日召開健康保險政策審議委員會(건강보험정책심의위원회),正式發布「藥價制度改善方案」。此項改革被視為韓國製藥產業近13年來最大規模的結構性調整,核心目標在於打破產業長期過度依賴學名藥的現狀,透過重新分配健保資源,將重心轉向支持「創新藥品」與「必需藥品」的研發及供應。 在強化創新新藥補償方面,政府為解決藥價偏低導致新藥上市延遲及出口受限的困境,將導入多項革新措施。 首先是自2026年第二季開始擴大實施「藥價靈活契約制」,允許藥品公開價格維持國際水準,實際支付價格則透過回饋調控,以消除跨國藥廠對全球參照價格的疑慮。此外,針對重症及罕見疾病藥物,計畫於2027年起彈性調高經濟效益評估門檻,並將罕病藥物健保登錄期由240天大幅縮減至100天內。針對具革命性療效的新藥,更預計於2028年建立「先登錄、後評估」機制,獲准後可立即供應藥品,後續再依真實世界證據調整藥價。 新制擬將學名藥及專利過期藥品的價格上限,由原廠藥的53.55%降至與主要先進國家相當的40%水準。針對已上市藥品,自2026年起將分三年進行階段性調降;同時廢除齊頭式的加算優惠,改採階梯式定價,規定同一成分藥品第11項學名藥起,藥價將較前一順位自動折減5%,藉此抑制低品質學名藥的失序競爭。 另一方面,為確保供應鏈脆弱的國家必需藥品供應,政府將提高低價藥品的成本補償上限至5億韓元,並新設最高7%的政策加成。若藥品使用韓國國產原料藥,將給予額外價格優惠,並在一定期間內豁免價機制,以鼓勵本土供應鏈韌性。韓國政府期盼透過市場機制的重組,迫使藥廠轉型投入創新研發或進入國內必需藥品供應鏈,以改善製藥產業結構。惟此舉引發業界強烈反彈,如何在改革陣痛期維持基礎藥品的穩定供應,將是政策能否順利落地的關鍵。
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。