歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。

  歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。

  本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式:

一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。

二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。

三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。

  AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

相關連結
相關附件
你可能會想參加
※ 歐盟提出人工智慧法律調和規則草案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8674&no=55&tp=1 (最後瀏覽日:2026/02/01)
引註此篇文章
你可能還會想看
英國衛生部將建立之病歷資料庫挑動隱私保護議題之神經

  英國衛生部(Department of Health)於5月21日公布新的國家衛生政策,政策中指出,未來將建立資料庫,透過建設完善醫藥資訊之流通分享機制可改善對於病患之醫療服務以及促進學術研究之發展,當局承諾將採取適當之保護措施以妥善保護當事人之個人資料。然而,該政策同時亦承認對於病患資料匿名化之措施仍可能侵害當事人之隱私權。   當局指出,為了保護當事人之權益,將個人資料匿名化實屬必要,然而,對於醫療院所而言,縱使已經將個人資料匿名化,但透過其他相關資訊包含年齡、性別、血型、身高或者體重等,仍可能間接識別出當事人之個人資料。   衛生部重申建立資料庫分享當事人之個人醫療資料將可有效促進學術研究之發展,但將會透過當事人同意以及確實匿名化之機制保護當事人之個人資料。另外,衛生部於該政策中指出未來將要求英國之醫療機構必須於內部建立系統,使患者、當事人可有管道查詢其留存於資料庫之資料。   英國之隱私保護專員指出,由於此政策涉及敏感性個人資料之蒐集,所以其針對衛生部之政策規畫將持續關注,以確保當事人之隱私權。

澳洲發布《人工智慧臨床應用指引》提供臨床照護之人工智慧使用合規框架

澳洲醫療安全與品質委員會(Australian Commission on Safety and Quality in Health Care, ACSQHC)與衛生、身心障礙及高齡照護部(Department of Health, Disability and Ageing)聯合於2025年8月發布《人工智慧臨床應用指引》(AI Clinical Use Guide),旨在協助醫療人員於臨床情境中安全、負責任使用人工智慧(Artificial Intelligence, AI)。該文件回應近年生成式AI與機器學習快速導入醫療現場,卻伴隨證據不足、風險升高的治理挑戰,試圖在促進創新與確保病人安全之間建立清楚的合規框架。 該指引以臨床流程為核心,將AI使用區分為「使用前、使用中、使用後」三個階段,強調醫療人員須理解AI工具的預期用途、證據基礎與風險限制,並對所有AI產出負最終專業責任。文件特別指出,當AI工具用於診斷、治療、預測或臨床決策支持時,可能構成醫療器材,須符合澳洲醫療用品管理管理局(Therapeutic Goods Administration, TGA)的相關法規要求。 在風險治理方面,該指引明確區分規則式AI、機器學習與生成式AI,指出後兩者因輸出不確定性、資料偏誤與自動化偏誤風險較高,臨床人員不得過度依賴系統建議,仍須以專業判斷為核心。同時,文件要求醫療機構建立AI治理與監督機制,持續監測效能、偏誤與病安事件,並於必要時通報TGA或隱私主管機關。 在病人權益與隱私保護方面,指引強調知情同意與透明揭露,醫療人員須向病人說明AI使用目的、潛在風險及替代方案,並遵循《1998年隱私法》(Privacy Act 1988)對個人健康資料儲存與跨境處理的限制。澳洲此次發布之臨床AI指引,展現以臨床責任為核心、結合法規遵循與風險管理的治理取向,為各國醫療體系導入AI提供具體且可操作的合規參考。 表1 人工智慧臨床應用指引合規流程 使用前 使用中 使用後 1.界定用途與風險。 2.檢視證據與合規。 3.完備治理與告知。 1.AI輔助決策。 2.即時審查修正。 3.維持溝通透明。 1.持續監測效能。 2.標示可追溯性。 3.通報與再評估。 資料來源:AUSTRALIAN COMMISSION ON SAFETY AND QUALITY IN HEALTH CARE [ACSQHC], AI Clinical Use Guide (2025).

2006年世界智慧財產權組織大會會議關於「商標法條約」的議題

  世界智慧財產權組織( WIPO )大會第三十三屆會議於 2006 年 9 月 25 日 (星期一)在瑞士日內瓦正式開幕,有來自全球 183 個會員國共襄盛舉,此次會議將於 9 月 25 日 至 10 月 3 日 間舉行。本次世界智慧財產權組織大會將審查該組織的工作進展,還有討論未來的政策方向,包括今年 3 月間在新加坡外交會議中所協商通過的「商標法條約( the Singapore Treaty on the Law of Trademarks ,故本條約又被簡稱為新加坡條約 Singapore Treaty )」、網域名稱、保護廣播組織與視聽表演之規定等議題。   其中今年協商通過的新加坡條約規範中,納入雷射圖樣( 3D )商標、動作商標、顏色、氣味及聲音等不同類型的商標,突破傳統商標只強調視覺觀感的象徵,增加許多非視覺的商標類型,以求符合商業的新興趨勢,勢必將使未來商標的應用更加多樣化。此外在新加坡條約中也增加相關救濟規定,如:商標申請人若非故意而導致逾期未完成註冊,締約國應提供權利回復的方式( Rule9 )等,對於申請人的保護更加周到。

印度民航局發布無人機規則草案

  印度民航局(Directorate General of Civil Aviation,以下簡稱DGCA)在禁止公眾使用無人機多年後,終於在2017年11月1日發布無人機使用規則(草案),並於網站上公開徵求意見。民航局部長P Ashok Gajapathi Raju表示,草案將於接下來的30日內,與所有利益相關者進行交流,一旦協商完成,將會確定無人機監管框架。預計今年12月底前完成訂定無人機使用管理規範,包含商業用途無人機。   根據規則草案,無人機依照最大起飛重量將其分為五類,分別為: 奈米(nano)無人機:重量小於250克; 微型(micro)無人機:重量在250克和2公斤之間; 迷你無人機(mini):重量介於2公斤至25公斤; 小型無人機:重量25公斤至150公斤; 大型無人機:重量150公斤以上。   除了飛行能力不超過50英尺高度的奈米無人機,所有無人機必須依照DGCA規定取得識別碼(Unique Identification Number)。針對2公斤以上的無人機需有無人機操作員許可證(Unmanned Aircraft Operator Permit),任何無人機的遙控飛行員必須年滿18歲,且需受過規定的培訓。   另,基於安全考量,草案規定禁止飛行無人機之區域,例如:機場範圍半徑5公里內、國際邊界50公里範圍內、戰略區域500公尺以內的國家重地、人口稠密地區、影響公共安全或正在進行緊急行動的地區、移動式平台(如:汽車、飛機或輪船)、及國家公園和野生動物保護區等生態敏感區域(eco-sensitive areas)等,違規者將依印度刑法之規定起訴。

TOP