為強化中草藥現代化,保障民眾用藥安全,行政院衛生署自民國 93 年起提出「建構中藥用藥安全環境五年計畫」,中醫藥委員會主委林宜信最近並表示,將在 2008 年前,強制全台所有飲片及傳統藥材做好符合規定的包裝及標示,標示內容包括檢驗文號、有效期限,包裝後則需符合 GMP 的規範;至於規範標準,預計會在 2008 年起推動,初期採取廠商自由心證的做法,但未來會改為強制執行。 國內中草藥可區分為科學濃縮製劑,以及傳統的飲片和傳統劑型,科學濃縮製劑透過中醫醫療院所流通,目前產值約 250 億元;一般藥店販售的飲片及傳統劑型,產值則有 300 億元以上。傳統中草藥做好包裝標示,可確保民眾用藥安全,並帶動傳統中草藥品牌加值,而要求包裝標示符合 GMO 規範,也有利進入國際市場。中醫藥委員會預估,中草藥強制包裝標示可提升中草藥產值,由 300 億元倍數成長到 1,000 億元以上的規模。
OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。
日本內閣府公布生成式AI初步意見彙整文件,提出風險因應、應用及開發兩大關注重點日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論: 一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。 AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。 二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。
英國通過《資料(使用與存取)法》,提升資料使用的便利性2025年6月19日,英國《2025年資料(使用與存取)法》(Data(Use and Access)Act 2025,下簡稱DUA法)正式生效。DUA法的宗旨是在《英國一般資料保護規則》(United Kingdom General Data Protection Regulation, UK GDPR)的基礎上,放寬在特定情形下執法機關、企業與個人使用資料的限制,以提升資料管理及使用的便利性。 DUA法預計將於2025年8月開始分階段實施,重點如下: (1) 放寬自動化決策(Automated Decision-Making, ADM)條件:依據UK GDPR規定,個人有不受純粹基於自動化處理且產生法律效果或類似重大影響之決策所拘束之權利。此項規範確立自動化決策之原則性禁止,僅於符合特定例外事由時始得為之。DUA法則放寬此一限制,未來企業只要確保有向當事人提供自動化決策的資訊、決策結果申訴的管道,以及得人為干預設計之保障措施以後,即可做出對個人有重大影響的自動化決策。 (2) 資料主體存取請求權(Subject Access Request, SAR)規範明確化:當事人有權向持有自身個資的單位請求查閱,DUA法明訂組織在收到請求後應回應的時間,而當事人請求的範圍也應合理且合於比例,避免組織浪費人力搜索不重要的資訊。 (3) 建立有效申訴管道:規定任何使用個人資料的組織都必須設立有效的申訴機制、提供電子化申訴管道、並回報處理結果,若訴求未獲得解決,當事人即可向英國資訊專員辦公室(Information Commissioner’s Office, ICO)提出申訴。 (4) 科學研究得採概括同意機制,商業研究亦屬適用範疇:DUA法明確指出,基於科學研究目的,研究人員於確保適當個人資料保護措施之前提下,得以概括同意(broad consent)方式取得當事人之同意,以利進行科學研究活動。DUA法並明確界定科學研究之範疇可涵蓋商業研究(commercial research),擴大其適用領域。 (5) 允許網站直接使用Cookie:網站與應用程式的儲存與存取技術(Storage and Access Technologies)在低風險情況下,可不取得使用者事前同意,即紀錄使用者瀏覽紀錄。 DUA法將於2025年8月開始分階段實施。如何在科技發展的便利性與個人資料的安全性間取得平衡,是當代社會不容忽視的議題,可持續觀察追蹤英國施行DUA法的成效供我國參考。