2022年2月23日,歐盟委員會(European Commission,以下簡稱委員會)公開資料法案草案(Data Act,以下簡稱草案),基於促進資料共享的目的,草案其中一個目標是使不同規模的企業、用戶在資料利用上有著更加平等的地位,內容包含確保用戶資料可攜性、打破資料存取限制、推動大型企業的資料共享,扶植微/小型企業等幾大方向。
以下就草案對大型企業要求的義務切入,說明草案所帶來的影響:
該資料法案草案須經歐盟議會(European Parliament)通過後才會生效,目前草案規定只要有在歐盟提供物聯網產品或服務之企業,就須遵守草案內容規範,考量到網路服務可跨國提供服務,草案規範與進度仍值得國內企業關注。
「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
哈佛大學的醫學研究人員最近公開表示,他們已經展開複製人類胚胎、創造幹細胞的工作,由於布希政府在數年前即已頒布禁令,禁止聯邦政府資助新的幹細胞系,故哈佛幹細胞研究所的這項計劃將以私人募集的基金進行。 人類胚胎幹細胞的研究一直具爭議性,因為抽取細胞需要破壞人類胚胎。哈佛幹細胞研究計劃以創造特定疾病的幹細胞系為目標,希望研發出多種不治之症的療法。哈佛大學認為這項計劃的潛在好處,大於人類生命神聖遭挑戰的關切,蓋其長期目標是,創造從病患細胞組織取得的胚胎幹細胞,修正基因缺陷,將修復細胞植回病患體內。校長薩默斯在聲明中說:「雖然我們了解且尊重反對此項研究者所持的信念,我們同樣誠摯地面對我們的信仰,相信攸關無數受苦孩童與成人生死的醫學需要,賦予這項研究繼續前進的正當性。」
2005 台日科技高峰論壇 揭示綠色環保的新契機「 2005 台日科技高峰論壇」於本﹙九﹚月 16 、 17 日在台北圓山飯店盛大展開,與會者包括台日高階產官學研代表,分就環境政策、環保科技及綠色產品等議題進行交流,研擬未來可能進行的合作模式。 於第一天開幕式中,亞東關係協會科技交流委員會主任委員蕭萬長即表示,藉由科技論壇可以增加政策和策略的相互了解,並減少重複浪費的研發 ; 藉由知識相互激盪可以維持競爭力和高度經濟成長,創造雙贏的局面。日本交流協會台北事務所的池田維代表則指出,先前日本於八大工業高峰會議中所倡議的 3R(REDUCE 、 REUSE 、 RECYCLE) 觀念,獲得各國極力贊成,他希望將日本特性表現在本次研討內容中,以加強彼此合作。 台日科技高峰論壇從 2003 年 4 月成立後,今年乃第三度在台灣舉行,與會貴賓包括日本眾議員水野賢一﹙ Mizuno, Kenichi ﹚ , 以「日本環境政策」發表專題演說;地球環境戰略研究機關理事長森 ( 山鳥 ) 昭夫﹙ Morishima, Akio ﹚則以「建構環保型產業」為題,自法律觀點說明,日本政府如何透過修訂法規之方式,逐步落實 3R 理念及其他永續發展措施;除此之外,日本 JST 、東京大學、北九州市立大學、日立製作所、東元電機、豐田汽車、福特六和汽車等台日環保科技代表亦分就「綠色產品」、「環保科技」等面向擬定專題發表談話。預料本次研討內容,對於未來台日科交流將能形成實質的幫助 , 並為未來科技發展指出綠色環保的新契機。
FDA發佈「拒絕接受510(K)審查申請之政策」指導文件草案醫療器材在美國上市所需依循的途徑,為申請510(k)審查或上市前審查(Premarket Approval, PMA)。順序上第一步,必須在90天前向美國食品藥物管理局(U.S. Food and Drug Administration, FDA)提出「上市前通知」(Premarket Notification, PMN)申請。所謂的510(K),係指美國《食品、藥物及化妝品法》(Federal Food, Drug, and Cosmetic Act, FD&C Act)第510節之規定,在申請的流程中,FDA會審查廠商所提出的佐證,是否具備與已上市的相同器材一樣之「實質相等性」(Substantial Equivalence),若不具備「實質相等性」,即必須進入PMA申請程序。 FDA指出過往機關接受許多不適當的501(K)審查申請,而必須要求這些不適當的申請廠商進一步補充文件,以進行實質審查。FDA指出這樣的程序,進行過度頻繁的審查,而浪費不少寶貴的資源及人力。FDA於2012年8月10發佈「拒絕接受510(K)審查申請之政策」指導文件草案。作為改善與加強501(K)申請流程之效率與有效性。新的指導文件草案之改善目標,係要求廠商必須提出傳統(Traditional)、特殊(Special)、簡略(Abbreviated)三種不同的申請所需之審查文件,FDA會先進行審查文件是否具備的預先審核,始進行實質審查。廠商必須依照指導文件草案內含的核對表(Checklist)所規定必須提交之審查文件,FDA有15天的時間回應廠商是否完成繳交,或要求廠商在新的15天之內補件,而承認 (Acceptance)形式審查完備,始進行實質審查。廠商亦可針對缺繳之文件,說明不提供之理由,並提出相關證明。指導文件草案提供以下幾個準則,提供審查機關審視核對表完備與否: 該產品是否為器材; 該項申請之對象是否正確; 是否為適當合法510(k)申請; 是否有相同的器材經PMA程序核准上市; 所提出的臨床數據,申請者是否受限於「申請規範政策」(Application Integrity Policy, AIP)。 FDA透過這樣預先審查之方式,檢視廠商所提出之申請,是否符合形式的要件,而決定是否進行實質審查,以避免浪費行政機關的資源與人力進行不適當的審查,希冀改善FDA目前501(k)審查申請制度之效率與有效性。
歐盟「人工智慧法」達成政治協議,逐步建立AI準則歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).