衛生署將推動中草藥於兩年內強制包裝標示

  為強化中草藥現代化,保障民眾用藥安全,行政院衛生署自民國 93 年起提出「建構中藥用藥安全環境五年計畫」,中醫藥委員會主委林宜信最近並表示,將在 2008 年前,強制全台所有飲片及傳統藥材做好符合規定的包裝及標示,標示內容包括檢驗文號、有效期限,包裝後則需符合 GMP 的規範;至於規範標準,預計會在 2008 年起推動,初期採取廠商自由心證的做法,但未來會改為強制執行。


  國內中草藥可區分為科學濃縮製劑,以及傳統的飲片和傳統劑型,科學濃縮製劑透過中醫醫療院所流通,目前產值約
250 億元;一般藥店販售的飲片及傳統劑型,產值則有 300 億元以上。傳統中草藥做好包裝標示,可確保民眾用藥安全,並帶動傳統中草藥品牌加值,而要求包裝標示符合 GMO 規範,也有利進入國際市場。中醫藥委員會預估,中草藥強制包裝標示可提升中草藥產值,由 300 億元倍數成長到 1,000 億元以上的規模。

相關連結
※ 衛生署將推動中草藥於兩年內強制包裝標示, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=451&no=55&tp=1 (最後瀏覽日:2026/05/01)
引註此篇文章
你可能還會想看
歐盟「人工智慧法」達成政治協議,逐步建立AI準則

歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).

英國對人類生殖及胚胎法案之檢討進行公眾諮議

  英國政府於 8 月 16 日宣布,對 1990 年所公布人類生殖及胚胎法案( the Human Fertilisation and Embryology Act 1990, the HFE Act )之檢討,展開公眾諮議活動,本項諮議活動將持續至今年 11 月 25 日。   本項諮議活動,源自於英國政府意識到該項法案雖然為英國的人類胚胎相關技術的研發提供了穩健的法制基礎,但隨著科技的進步,該項法律早已跟不上時代的腳步,甚至形成阻礙;有鑑於此,英國政府於 2004 年 1 月公布檢討上述法案,這項檢討包括預定在 2005 舉行公眾諮議活動( consultation ),希望夠過公眾參與獲得各界對上述法案的批評與建言,一方面建立公眾對相關科技的信心,一方面檢視該法是否仍適合英國 21 世紀初期的需求,並其建立一套為社會廣泛所接受的規範架構。本項諮詢的主要議題,包括了為醫療目的而選取胚胎之相關管控規範、供研究目的用之胚胎的定義與 粒線體遺傳疾病( mitochondrial disease )研究之規範。 根據英國健康部在其網站上發表的文件指出,這項檢討希望參酌科技的進展、社會態度的轉變、國際相關科技的發展與對可確實有效之法規的需求。   這項活動引起了英國下議院科技委員會( the House of Commons Science and Technology Committee )對生殖科技( reproductive technologies )與相關法律的注意,並對此做出回應。科技委員會建議,未來的修正應不會對胚胎重新定義,而是將焦點放在何種胚胎適合移植,何種胚胎可提供研究。委員會更建議,因粒腺體遺傳疾病研究,而造成基因結構改變之細胞成為胚胎的一部份的情形,應加以禁止。

手機軟體(APP)辨識來電號碼之法律問題

手機軟體(APP)辨識來電號碼之法律問題 科技法律研究所 102年03月25日 壹、事件摘要   我國自2005年開始推展行動電話「號碼可攜」服務,允許使用者將行動電話號碼申請移轉至另一業者。當號碼進行移轉時,為降低通話路由資訊傳遞之延遲、避免業者間轉換作業之延宕,通傳會指導各業者共同建立集中式資料庫,整合業者號碼管理資源,增進號碼可攜服務之效率。   日前有某非屬電信事業之業者,設計一款應用軟體,提供智慧型手機使用者下載、安裝後,可自行上傳通訊錄內之電話號碼,並透過電信事業之「號碼可攜集中式資料庫」,確認並辨識通訊錄內電話號碼所屬電信業者,將資訊回傳於使用者之智慧型手機。由於電話號碼屬於使用者個人資料之一環,本文以下分析「非電信事業與電信事業合作,於號碼可攜目的外,對資料庫內之資料進行蒐集、處理與利用是否違反個資法」之疑義。 貳、重點說明   「號碼可攜集中式資料庫」之設立主要目的在使不同業者間能準確的完成通訊的連接。然而,通傳會於96年10月亦有要求各電信業者設置查詢系統,提供用戶查詢欲致電之受話方是否係屬同家業者,進而協助用戶瞭解可能之通訊資費計算。換言之,通傳會認為辨識電信號碼屬於網內/外,屬於消費者規劃、理解其電信資費之權益。而目前亦有手機軟體可輔助消費者查詢相關資訊。   那麼,可否允許消費者進一步查詢致電對象所屬的業者呢?是否違反個人資料保護法的規定呢?   如前所述,通傳會認為使消費者瞭解電信號碼屬於網內/外,有助於資費理解之權益。我們更進一步說,允許查詢號碼所屬門號,不僅消費者可知悉資費之數額計算以決定是否致電,尚可決定是否使用相同電信業者之服務來打電話。我國行動電話普及率早已超過120%,有相當比例之消費者擁有二個以上之門號,若可揭露致電號碼所屬電信業者,使消費者可刻意選擇以網內門號致電,無疑具有相當實益。因此我們認為電信業者提供消費者以手機軟體查詢門號所屬業者,並不違反個資法上針對電信服務規範之「特定目的」(第133項:經營電信業務與電信加值網路業務)。一般的行動電話用戶,可透過電信業者查詢其所致電對象之門號所屬業者,則居於輔助地位的APP軟體,與用戶直接向業者查詢相比,實則無任何不同,應視為用戶之合理行為。 參、事件評析   個資法修正後,對於個人資料之保護更加的完善,但科技之發展使得個人資料之利用呈現多樣性,難以釐清某些利用行為是好是壞,然而本文基於鼓勵科技發展以及創新研發的立場,當面對某些個資利用情狀產生疑義時,應加以釐清其運用之情狀,避免在情境不明時,過度的擴張個資保護的界線,對市場發展以及消費者權益而言,並非好事。   當然另一方面而言,濫用科技便利的情形是存在的,如同2012年12月甫結束之ITU國際電信大會(WCIT2012),多國所簽署之修正電信管制規則第5B條所示,要求各國應努力採取必要措施,防止未經許可之濫發電子訊息,以減少對國際電信業務之影響。由於網路無遠弗屆,具騷擾性、浮濫發送之訊息,已從早期之垃圾電子郵件,擴及網路即時通訊軟體,不但時常造成使用者之困擾,甚至造成詐騙橫行。而這些狀況,光依靠個資法也是不足的,尚須主管機關對於濫用電信資源加以管制,從個人資料與電信資源等層面多管其下,方能維護良好之產業環境。

美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見

  美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。   依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。   依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。   此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。   最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。

TOP