美國專利商標局(USPTO)在2005年11月,與歐洲專利局(EPO)及日本專利局(JPO)之三邊會前會上,提出了一個簡稱為「三路」(Triway)的檢索共享計畫,該計畫希望能使三局的檢索技術發揮槓桿效果,進而能使專利申請者及各該專利管理當局受惠。
三局其後在2007年11月的三邊會前會上同意先期進行有限的試驗計畫。
「三路」的基本構想乃希望透過縮短時效來推廣資源分享,同時能使申請者及各該管理當局在很短的一定時間內取得三局的檢索結果,進而使申請者及各該局有機會能分享及考量所有的檢索結果,同一協助改善各該局對同一專利申請者專利審定之品質。
在「三路」試行計畫下,各該局對於在巴黎公約下之同一專利申請將適時提早進行檢索,且各該局的檢索結果將由三局共同分享以減少各該局的檢索及審查工作量。
三局同意「三路」試行計畫之試行對象限於在美國專利商標局首次提出申請者,並限於一百個試行專利申請案,試行計畫將在明年的同一時間結束,或在接受一百個試行專利申請案後提前結束。
為貫徹對未成年人的保護,避免未成年人以網路方式購買 R18 級情色影片,英國政府規定該類影片只能於獲有執照之供應商店販售,並僅有實際到店的顧客方得購買,禁止以郵購、網路或電話方式行銷,引發業者反彈,其中兩家公司遭受罰鍰處分後提起訴訟,日前上訴英國高等法院 (High Court) 主張此項限制對英國境內業者並不公平,境外業者可以規避此限制而仍於網路上販售 R18 級影片,將嚴重影響英國境內業者的發展。 該法院於五月二十三日作出決定認為此項限制為合法,蓋因網路購物難以確認購買者的年齡,強制規定必須到店購買將有助於確認購買者是否已達法定年齡,降低未成年人購得 R18 級影片的可能性。
歐盟「人工智慧法」達成政治協議,逐步建立AI準則歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).
歐美貿易與技術理事會發表第6次聯合聲明,確保雙方於新興技術及數位環境之領導地位歐美貿易與技術理事會(EU-U.S. Trade and Technology Council,TTC) 2024年4月4日至5日在比利時魯汶舉行第6屆部長會議,依據會後聯合聲明,雙方針對數位轉型所帶來的機遇與挑戰,同意在新興技術和數位環境等面向促進雙邊貿易和投資、進行經濟安全合作,並捍衛人權價值。未來雙方將針對AI、半導體、量子技術和6G無線通訊系統等制定互通機制及標準,簡述如下: (1) AI技術:採取「風險基礎方法」(risk-based approach)實施「可信任人工智慧和風險管理聯合路徑圖(Joint Roadmap for Trustworthy AI and Risk Management),提高透明度以降低公民及社會使用AI的風險;更新關鍵AI術語清單(a list of key AI terms),減少雙方於概念認知上的誤差;承諾建立對話機制,以深化雙邊合作。 (2) 半導體:為促進半導體供應鏈韌性(resilience)與協調(coordination),將延長實施「供應鏈早期預警機制」(joint early warning mechanism)及「透明機制」(transparency mechanism)兩項行政安排,共同解決半導體產業市場扭曲、供應鏈過度依賴特定國家等挑戰。 (3) 量子技術:雙方將成立量子工作小組(Quantum Task Force),以制定統一量子技術標準,加速技術研發。 (4) 6G技術:雙方通過「6G願景」(6G vision),並對於未來研究合作簽署行政安排(administration arrangement),建立6G技術開發共同原則。 歐美雙方期望透過上述作法,促進半導體和關鍵技術研發和供應鏈多元化,以確保經濟安全及落實數位轉型,確保歐美於新興技術和數位環境之領導地位。
何謂「監理沙盒」?沙盒(Sandbox)是一個讓小孩可以安全遊玩與發揮創意的場所,在電腦科學領域,沙盒則是用來代稱一個封閉而安全的軟體測試環境。而監理沙盒(Regulatory Sandbox),則是在數位經濟時代,為因應各種新興科技與新商業模式的出現,解決現行法規與新興科技的落差,故透過設計一個風險可控管的實驗場域,提供給各種新興科技的新創業者測試其產品、服務以及商業模式的環境。 在監理沙盒當中,業者將暫時享有法規與相關責任的豁免,減低法規遵循風險,以使業者能夠盡可能地測試其技術、服務或商業模式。透過在測試過程中與監管者(通常為政府主管機關)的密切互動合作,針對在測試過程中所發現或產生的技術、監管或法規問題,一同找出可行的解決方案,並作為未來主管機關與立法者,修改或制定新興科技監管法規的方向跟參考。 監理沙盒一詞源自英國在2014年因應Fintech浪潮所推動的金融科技創新計畫,而類似的概念也出現在日本2014年修正產業競爭力強化法當中的灰色地帶消除制度與企業實證特例制度。我國則於2017年通過金融科技發展與創新實驗條例,為我國監理沙盒的首例,2018年我國持續推動世界首創的無人載具科技創新實驗條例立法,為我國建構更有利於產業創新的法制環境。