為防止網路服務企業,在提供網路服務上替客戶連接寬頻網路(Breitbandanschluss)時,僅准許使用自家公司提供之路由器(Router),進而導致路由器或數據機(Modem)市場之壟斷狀況,違反市場自由競爭,德國聯邦內閣政府於2015年8月12日決議通過德國聯邦經濟暨能源部(Bundesministerium für Wirtschaft und Energie)於2015年2月25日所提出之「電信終端設備連接與自由選擇法草案」(Gesetz zur Auswahl und zum Anschluss von Telekommunikationsendgeräten)。 透過該草案,德國廣播電台與電信發射設施法(Gesetz über Funkanlagen und Telekommunikationsendeeinrichtungen)新增條文,以確保所有的終端設備(Endgeräten)列為市場自由化之對象。透過法定市場自由化的規範亦達成歐盟貨物公開及自由流通(free movement of goods)之原則。 該草案亦修定德國電信法(Telekommunikationsgesetz),「客戶之網際網路接取」現被定義為「被動式網絡終端點(passiver Netzabschlusspunkt)」。亦即,網路的架構設定與規劃,以往通常為電信業者所指定及管理,並包括路由器在其中,然而透過新法之修訂,已將路由器排除在被動式網絡終端點外,反而明確定義為積極終端設備(aktives Endgerät)。電信業者的管轄管理權限,以草案之修訂在路由器端前就會被設限。因此,讓網際網路使用者自己可使用自己裝置的路由器來定義自身的積極連接點(aktives Zugangspunkt)。 然而,網路營運者仍然可以提供其客戶終端設備,像是路由器或網路數據機,但透過該草案,客戶現可擁有終端產品的選擇權,而不致被迫使用被指定之網路終端設備。
荷蘭與德國率先成立GO FAIR國際支援與合作辦公室,推動歐洲開放科學雲歐洲開放科學雲(European Open Science Cloud, EOSC)旨在整合現有的數據基礎設施以及科研基礎設施,為歐洲研究人員與全球科研合作者提供共享的開放資料服務。為此,荷蘭與德國於12月率先成立GO FAIR國際支援與合作辦公室(The GO FAIR international support and coordination office, GFISCO)。荷蘭辦公室坐落於萊頓,並由荷蘭政府與萊頓大學醫學中心(Leiden University Medical Center)所共同出資設立。 該辦公室之成立源自於GO FAIR計畫,GO意即全球開放(The Global Open)、FAIR則分別係指可發現(Findable)、可連接(Accessible)、共同使用(Interoperable)和可重複使用(Re-usable),其目標在於跨越國界,開放目前科研領域現有的研究數據,係為邁向歐洲科學雲之里程碑。 荷蘭與德國曾於2017年5月時,發表聯合立場聲明書以展現推動歐洲開放科學雲以及全力支援GO FAIR計畫之企圖心,此次辦公室之設立為,包含以下主要任務: 支援由個人、機構、計畫組織等各方所組成的GO FAIR實踐網絡(GO FAIR Implementation Networks, INs)之營運工作。 進行GO FAIR實踐網絡之協調工作,以避免重複或壟斷之情形發生。 透過教育支援等方式倡議推行GO FAIR計畫。 GO FAIR國際支援與合作辦公室主要之角色為提供建言,而非幫助GO FAIR計畫做決策,若無達成預期效果或是缺乏明確的工作計畫時,該辦公室則可提供相關服務,以協助達成預期目標,並協助處理行政上之相關議題。
Other Transaction(OT)於新創政府採購之應用今(2018)年2月,一家成立於2013年、位於美國維吉尼亞州的雲端策略服務公司REAN Cloud Llc.以其他交易(Other Transaction, OT)模式獲得了美國國防部(Department of Defense)5年合計9.5億美金的合約,讓OT自2016年10 U.S. Code §2371b正式生效進一步確認美國國防部針對原型(Prototype)及其後續之產品開發適用OT以來[1],再次引起討論。 OT源於冷戰時期的美國,主要用於讓聯邦政府部門取得尖端國防技術的研究與發展(Research and Development, R & D)成果和原型。OT並非傳統之契約(contract)、授權書(grant)或合作協議(cooperative agreement),且法並無明確定義OT究竟實質內容為何。OT不受聯邦併購規則(Federal Acquisition Regulation, FAR)所規範,更接近一般私人商業契約,因此具備極大的合作彈性,可大幅度縮短私部門與政府合作常碰到的冗長時程。由於OT快速、彈性的這兩項特質,近年來應用於國防以外之新創或尖端科技之公私合作亦逐漸普遍。 然OT雖然簡化了政府採購的時程與限制,但同時也減少了問責可能性和透明度,因此目前只限具備美國國會授予其他交易授權(Other Transaction Authority, OTA)的聯邦政府機構得以使用OT。在美國計有太空總署(NASA)、美國國防部、美國聯邦航空總署(Federal Aviation Administration)、美國運輸部(Department of Transportation)、國土安全部(Department of Homeland Security)、運輸安全管理局(Transportation Security Administration)、衛生與公共服務部(Department of Health and Human Services)、美國能源部(Department of Energy)獲得國會授予OTA,其餘未獲OTA之政府部門僅得以在聯邦預算管理局(Office of Management and Budget)主任授權下有條件地使用OT。 尖端技術的R&D在不同領域皆有其特殊性,難以一體適用FAR,是以OT在實務運作上為兼顧持有尖端技術的公司重視速度和營業秘密之特質與採購之公平性,其運作模式通常為:聯邦政府成立某種技術領域的OT聯盟(consortium),私部門的潛在締約者可以申請加入,繳交會費並同意該聯盟的約定條款。聯盟之約定條款通常較政府採購契約來的有彈性,例如智慧財產權的歸屬是以個案個別約定。擁有OTA之政府機關嗣後可向聯盟成員徵求產品或服務白皮書,之後再從中挑選優秀者進一步繳交更詳細的產品或服務計畫書,最終經由聯盟管理機構(consortium management organization)挑選出最適者。 OT與OT聯盟的運作模式,為公私合作提供極大的法律彈性,且非常迅速。平均而言,從政府徵求白皮書到成功找到最適者,不過兩個月時間。時間與彈性乃是新創企業或尖端技術持有者與政府合作時最有疑慮之處,OT可以解決此一問題。然需注意OT在適用上仍存在諸多挑戰,例如成效難以評估、較不透明導致監督困難、智慧財產權歸屬爭議等,有待克服。 [1] 美國國防部在此前乃是遵循Section 845 of the National Defense Authorization Act(NDAA) for Fiscal Year(FY) 1994, Public Law 103-160適用OT。
歐盟「人工智慧法」達成政治協議,逐步建立AI準則歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).