美國奧勒岡州聯邦法院於今年(2016)5月命令鞋帶編織廠商Enter Play Sports Inc.(以下簡稱Enter Play Sports),簽訂與運動品牌商Nike Inc.(以下簡稱Nike)於去年(2015)7月所達成的和解協議及相關文件。
2012年,Nike委託Enter Play Sports製作一項具有3D編織鞋面的運動鞋樣品,雙方並於同年12月簽訂保密協議。Nike指出,Enter Play Sports其後違反保密協議,分別於2013年5月及6月提出專利申請。Nike認為Enter Play Sports所提出的專利申請含有Nike的機密資訊,其中至少包括3D編織鞋面的概念及其製造方法。因此,Nike於2014年向Enter Play Sports提起訴訟,控告其違反雙方的保密協議以及奧勒岡州營業秘密法(Oregon Trade Secret Act)。
Enter Play Sports表示,過去並沒有任何關於運動鞋編織鞋面的相關經驗,亦沒有開發或製造運動鞋編織鞋面的計畫。而Nike於樣品開發流程中,曾提供Enter Play Sports多項與3D編織鞋面相關的草圖及文件。然而,Enter Play Sports於訴訟中提出反訴,認為其專利申請中並未包含保密合約中的任何機密資訊,或是機密資訊已落在保密合約的除外條款中,因而尋求法院的確認。
起訴後一年,即去年,Nike與Enter Play Sports同意藉由司法和解會議(Judicial Settlement Conference)達成和解協議。Enter Play Sports於和解會議中承認, Enter Play Sports的專利申請內容與Nike鞋子重疊之處屬Nike之智慧財產,其餘部分則各自歸屬於提出申請者。
司法和解會議結束後,Enter Play Sports卻以雙方未達成合意為由拒絕簽訂和解協議及相關文件。然而法院認為,於司法和解會議中雙方已決定由司法官(U.S. Magistrate Judge)的判斷作為和解決議,因此於今年5月命令Enter Play Sports簽訂和解協議及相關文件。
「本文同步刊登於TIPS網站(https://www.tips.org.tw)
英格蘭、蘇格蘭、威爾斯政府,以及北愛爾蘭農業、環境和鄉村事務部於2024年5月23日共同提出「溫室氣體移除納入碳交易框架」(Integrating Greenhouse Gas Removals in the UK Emissions Trading Scheme)聯合諮詢文件,擬將「溫室氣體移除」(Greenhouse Gas Removals, GGRs)技術納入現行英國碳排放交易體系。GGRs係指主動將大氣中的溫室氣體移除之方法,又稱「二氧化碳移除」(Carbon Dioxide Removal, CDR)、「負碳技術」(Negative Emission Technologies, NETs),此類技術被認為能協助「難減排產業」減少排放。 此次意見徵集主要針對以下四大面向: 1.基本原則:將GGRs整合進UK ETS,須以維持減碳誘因、確保市場誠信、創造長期有效率的碳權交易市場、環境友善、具備可操作性、最小干預性、未來靈活性保障、考量財務影響等原則為基本前提。 2.總量管制:UK ETS於納入GGRs後,預計仍將維持當前總量上限,以避免實質上增加企業的排放容許量。 3.配額發給:GGRs能獲得的配額,擬採取「事後發給」的方式,於移除完成並經過驗證後,才發給配額,以維持交易市場的可信性。 4.市場整合:英國目前暫不考慮建立獨立的溫室氣體移除交易市場,擬將GGRs完全整合進既有的UK ETS中,並透過總量及需求控制或免費配額等措施調節市場供需,穩定並促進市場發展。 英國政府相信,透過將GGRs納入現行UK ETS中,可以增加企業對於碳移除之需求,提高負碳技術的投資誘因,進而持續對於淨零排放的目標有所貢獻。
歐盟「人工智慧法」達成政治協議,逐步建立AI準則歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).
美國長粒米受到基因污染 Bayer被告上法庭美國農業部( USDA )在今( 2006 )年 8 月 18 日 公布,在 Arkansas 及 Missouri 的米倉發現,這些地方所儲存的美國長粒米( long grain rice )中含有 Bayer CropScience 未經核准的基因改造生物種。高品質的長粒米米粒細長,具有 20 %~ 25 %的中直鏈澱粉含量,米飯柔軟但鬆散,冷飯不變硬,在國際稻米市場有很高的評價,價格也最高。進口此型白米的國家有西歐、中東、加勒比海各國、新加坡、馬來西亞等,出口國為泰國,在歐洲市場上的售價,美國米略高於泰國米。美國長粒米的主要生產地是在 Arkansas ,意外事件發生時,當地農夫正在收成稻米。 截至目前 8 月底,美國本土因為基改稻米的基因污染了美國長粒米( U.S. long grain rice )的供應,而向 Bayer CropScience 提出損害賠償的訴訟已有三起,主要內容為請求因為基因污染致美國長粒米的價格下跌的損害賠償。另 由於相關的安全審查並未檢測出來此次流入外銷市場的美國長粒米,因此 雖然 USDA 表示混入 GMO 的長粒米並不會對人體或環境造成危害,但 世界各大進口國仍採取了相關緊急措施。 例如,日本於此消息一經公布後,當即停止美國長粒米的進口,而歐盟則表示只有經檢測證實從美國進口的長粒米未含有 Bayer CropScience 所研發尚未經許可之 GMO 特性,始得上架販售。
歐盟人工智慧辦公室發布「通用人工智慧實踐守則」草案,更進一步闡釋《人工智慧法》之監管規範.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 歐盟人工智慧辦公室(European AI Office)於2024 年 11 月 14 日發布「通用人工智慧實踐守則」(General-Purpose AI Code of Practice)草案,針對《人工智慧法》(Artificial Intelligence Act, AIA)當中有關通用人工智慧(General Purpose Artificial Intelligence, GPAI)之部分,更進一步闡釋相關規範。 本實踐守則草案主要分為4大部分,分別簡介如下: (1)緒論:描述本守則之4個基本目標,包含協助GPAI模型提供者履行義務、促進理解人工智慧價值鏈(value chain)、妥適保障智慧財產權、有效評估且緩解系統性風險(systemic risks)。 (2)GPAI模型提供者:有鑒於GPAI模型對於下游系統而言相當重要,此部分針對模型提供者訂定具體責任。不僅要求其提供訓練資料、模型架構、測試程序等說明文件,亦要求制定政策以規範模型用途防止濫用。另於智慧財產權方面,則要求GPAI模型提供者遵守「歐盟數位單一市場著作權指令」(Directive 2019/790/EC)之規定。 (3)系統性風險分類法(taxonomy):此部分定義GPAI模型之多種風險類別,諸如可能造成攻擊之資訊安全風險、影響民主之虛假資訊、特定族群之歧視、超出預期應用範圍之失控情形。 (4)高風險GPAI模型提供者:為防範系統性風險之危害,針對高風險GPAI模型提供者,本守則對其設立更高標準之義務。例如要求其於GPAI模型完整生命週期內持續評估風險並設計緩解措施。 本守則發布之次週,近千名利害關係人、歐盟成員國代表、國際觀察員即展開討論,透過參考此等回饋意見,預計將於2025年5月確定最終版本。