美國聯邦貿易委員會(Federal Trade Commission,以下簡稱FTC)在2016年2月針對一款宣稱能矯正視力之Ultimeyes App處罰。此款App由Carrot Neurotechnology公司研發,以美金9.99元於平台上販售供民眾下載。App宣稱具有提升及改善視力功能,透過App使用即可在日常生活中的各種活動中,感受視力恢復而不需使用眼鏡。然而,FTC起訴認為,App所稱之使用療效,缺乏充分的文獻資料佐證說明。其必須具備完整及可信賴的科學證據來證明,包含臨床試驗或盲測等方式,且該科學證明必須符合相同領域專家所認定之標準,否則,該款App內容所標榜之效果即屬不實陳述,將造成民眾誤認。為此,Carrot Neurotechnology公司最終以美金15萬達成和解,並且經FTC要求,若將App說明當中未經科學證明的療效部份予以刪除,即可繼續再繼續販售此款App。此案並非美國FTC首度針對mHealth App處罰之案例,然而,可能造成mHealth App發展業者對FTC與FDA角色之間之混淆,後續兩者主管機關之間之角色如何調和將是未來關注之重點。反觀我國,目前雖無相關案例發生,然在鼓勵發展之際,亦應考量是否有違反消費者保護之情形。
本文為「經濟部產業技術司科技專案成果」
英國資訊委員辦公室(Information Commissioner's Office, ICO)2018年9月就監理沙盒為初步公眾意見徵詢,以瞭解其可行性。ICO監理沙盒之建立係依據英國2018-2021年科技策略(Technology Strategy for 2018-2021),並參考英國金融行為監理總署(Financial Conduct Authority, FCA)已成功發展之沙盒機制。ICO將提供組織於安全可控且不排除資料保護法規適用的環境下,以創新方式應用個資於開發創新產品與服務,並提供關於降低風險與資料保護設計(data protection by design)的專業知識和建議,同時確保組織採取適當安全維護措施。徵詢重點分為六部分: 障礙和挑戰(Barriers and Challenges):歐盟一般資料保護規則(General Data Protection Regulation, GDPR)或英國2018年資料保護法(Data Protection Act 2018, DPA18)之適用,以及ICO之監管方法,是否造成組織以創新方式應用個資於開發創新產品與服務之障礙或挑戰。 適用之可能範圍(Possible scope of an ICO Sandbox) 了解參與益處(Understanding the benefits of involvement) 機制(Sandbox mechanisms):於監理沙盒機制下不同階段提供指導,初期就如何解決資料保護相關問題提供非正式之指導(informal steers);中期提供法律允許與具適當保護措施之監管指導,如對參與者進入沙盒期間內非故意違反資料保護原則之行為,不會立即受到制裁之聲明函(letters of comfort)、確認組織未違反相關資料保護法規等;以及針對新興技術和創新特定領域,提供解決資料保護挑戰之預期指導(anticipatory guidance),如訂定相關行為準則(code of conduct)。 時機(Sandbox timings):包含開放申請進入沙盒時點、進入模式、是否彈性因應產品開發週期、測試階段期間等。 管理需求(Managing Demand):如設定優先進入沙盒領域、類型、設定參與者數量上限等。 該諮詢於10月12日結束,2018年底將公布結果,值得持續追蹤,以瞭解ICO監理沙盒未來之發展。 ICO亦接續於10月建立監管機關業務和隱私創新中心(Regulators’Business and Privacy Innovation Hub),與其他監管機關合作提供資料保護之專業知識,以確保法規與未來的技術同步發展;該中心也將與ICO監理沙盒共同推動,支持組織以不同方式使用個資開發創新產品和服務。
日本修訂大學與研究機關敏感技術出口管理指引,因應外為法相關行政命令修正擴大出口行為之認定範圍日本經濟產業省於2022年2月4日公告修正「大學與研究機關敏感技術出口管理指引」(安全保障貿易に係る機微技術管理ガイダンス(大学・研究機関用))。該指引係依據外匯與外貿法(外国為替及び外国貿易法,下稱外為法)及其行政命令訂定,用以協助大學與研究機關,建立符合出口管制法規之內控制度,防止關鍵技術外流。 經產省於2021年11月18日公告修正外為法第55條之10第1項授權訂定之行政命令「出口人法遵標準省令」(輸出者等遵守基準を定める省令の一部を改正する省令),強化「視同出口」(みなし輸出)行為管制之要件明確性。經上述行政命令修正,日本居民位於外國政府支配下,或其行動係經外國政府與組織指示,而受到外國政府與組織強烈影響之情形,視同非日本居民,向其提供敏感技術需申請出口許可。本次指引修正即以此為基礎配合調整相關內容,重點如下: 針對如何認定是否該當「視同出口」要件,追加說明模擬事例與判斷方式,例如:日本大學教授同時在外國大學兼職,又取得敏感技術時,是否該當「視同出口」要件,應以契約判斷或要求該教授應主動申報。 大學與研究機構之出口管理程序:就教職員與學生是否會在「視同出口」要件下,被認定為非日本居民,建議應由大學或機構內之相關部門於其到職或入學時,掌握必要資訊;技術提供方在提供技術前,需先確認技術取得方是否屬於「視同出口」要件下之非日本居民等。 增訂敏感技術出口人之義務:若需向直接取得敏感技術以外之人,獲取判定「視同出口」要件該當性之必要資訊,應訂定程序依此進行判定;大學或研究機構衍生新創事業若有涉及敏感技術出口之業務,大學或機構方應進行相關指導。 遠距工作與線上會議相關:應留意透過線上會議「提供技術」之可能性;存在僱傭關係但未入境日本,經遠距工作提供勞務者,視為非日本居民;於日本境內線上參加海外研討會時提供受管制技術,視同向境外出口技術而須申請許可。
歐盟「人工智慧法」達成政治協議,逐步建立AI準則歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).