法蘭克福最高法院在2006年10月19日對於一則「不好喝保證退費」電視廣告,判決被告對消費者因未盡到資訊告知義務(Informationspflicht)而違反不正競爭防止法(UWG)。
被告在一則促銷其所生產之礦泉水電視廣告中,打上「不好喝保證退費」等標語,但關於詳細退費資訊在電視廣告中並無說明,進一步的退費資訊,如退費條件、如何退費等,是黏在寶特瓶瓶身,需待消費者將此標籤撕下,才得以看到相關的退費資訊。原告是符合不正競爭防止法(UWG)第8條第3項第2款「以促進工商利益為目的而具備權利能力之工商團體」(Wettwerbsverband);原告認為被告違反「不正競爭防止法(UWG)」第4條第4款之規定:「未清楚標示引起消費者購買決心之促銷佸動的條件」。
法蘭克福最高法院(OLG Frankfurt a.M.)首先確認被告所刊登之「不好喝保證退費」電視廣告已經符合不正競爭防止法第4條第4款「促銷活動」之構成要件。再者,法院認為在被告所刊登之電視廣告及附在產品瓶身之退費條件標籤並不足以使消費者明確得知退費資訊。被告抗辯,基於現實因素,並無法將具體的保證退費條件一一細數在電視廣告中;惟法蘭克福最高法院認為,即使消費者可以透過其他管道得到相關的退費資訊,亦無法補正被告在電視廣告中未盡到告知義務之缺失。
對於此種類似噱頭之電子媒體行銷手法,是否可以只在產品瓶身明示退費規則,而在電子媒體廣告中忽略不提,是否有不實廣告及消費者權益如何保障等問題,都值得注意。
英國最高法院於2020年8月26日,駁回華為與中興通訊在Unwired Planet v Huawei和Conversant v Huawei and ZTE案的上訴決定。美國公司Unwired Planet和Conversant控訴華為及其他智慧手機製造商,侵害其所擁有的英國專利技術,其中包含由國際標準制定組織(Standard Setting Organization, SSO)與歐洲電信標準協會(European Telecommunications Standards Institute, ETSI)所制定的2G、3G及4G無線通訊標準必要專利(Standards Essential Patents, SEP)。依據ETSI智慧財產權政策(Intellectual Property Policy, IPR),SEP權利人必須以公平、合理和無歧視條款(Fair, Reasonable and Non-discriminatory, FRAND)向實施者進行授權。英國最高法院根據ETSI政策所制定的契約內容,應賦予英國法院管轄權,更能決定多國專利組合的全球授權條款。若華為拒絕支付法院認定的FRAND全球授權金,法院將會頒布禁制令,禁止華為在英國銷售侵權產品。 首先,關於本案管轄權爭議,最高法院認為,在沒有雙方協議管轄的情況下,英國法院具有本案管轄權,得發給禁制令並確定專利授權費率等授權條件。原則上,專利有效性與侵權爭議,應由授予專利的該國法院決定,然而本案依據ETSI智慧財產權政策所訂定的契約,已約定由英國法院管轄,並得決定包括外國專利在內的專利組合授權條款。 另外,本案關於FRAND無歧視爭議,係源於華為主張Unwired Planet先前給予Samsung較低的授權費率,對華為構成歧視性授權。最高法院認為,Unwired Planet未違反FRAND無歧視承諾,蓋依據ETSI智慧財產權政策,FRAND無歧視並非硬性(hard-edged)要求前後授權費率完全一致,而是指所有市場參與者,基於專利組合的市場價值,都能取得專利授權使用的合理權利金價格表,絕非強制SEP所有人對類似條件的被授權人提供相同的授權條件。本案法院也認同,基於經濟或商業實務上的習慣,調整個別授權金,並未違反ETSI智慧財產權政策的無歧視要求。
歐盟「人工智慧法」達成政治協議,逐步建立AI準則歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).
歐盟根據資料治理法及實施規則,透過通用標章管理資料中介服務提供者及資料利他主義組織歐洲執委會(European Commission)根據2022年6月23日生效的資料治理法(Data Governance Act, DGA)第11條及第17條,於2023年8月9日公布資料治理法及實施規則(Commission Implementing Regulation (EU) 2023/1622 of 9 August 2023),該規則明定可用於識別「受認證的歐盟資料中介服務提供者(data intermediation services providers)及資料利他主義組織(data altruism organisations)」的通用標章(Common logos)之細節,且該通用標章已申請商標註冊,以保護其免於遭受不當利用。 經歐盟認證的「資料中介服務提供者」向服務利用者提供服務時,應確保服務利用者(個人及公司)可以有效的控制自己的資料,包含共享資料的對象及時間、可在不同裝置間共享資料等。經歐盟認證的「資料利他主義組織」則應以全歐盟通用之統一格式的歐洲利他主義同意書(data altruism consent form)在各成員國之間蒐集資料,並應確保資料主體(data subject)可以隨時撤回其同意。 識別受認證的「資料中介服務提供者」及「資料利他主義組織」是實施資料治理法的一環。受認證的「資料中介服務提供者」及「資料利他主義組織」選擇使用通用標章時,不僅須將通用標章清楚標示在所有線上的出版品上,亦須將通用標章清楚標示在所有線下的出版品。經歐盟認證的「資料利他主義組織」在標示通用標章時須附上可連結到「歐盟認證的『資料利他主義組織』之公開登記資料庫(public register of data-altruism organisations)」的QR code,歐盟將於2023年9月24日開始提供該公開登記資料庫。在歐盟層面,這些通用標章的利用可以易於識別被認證的「資料中介服務提供者」及「資料利他主義組織」與其他未經認證的服務提供者,有助於提高整體資料市場的透明度。 由於數位資料具有易於竄改、複製等特性,因此需要透過「可信任工具」來證明其來源正確、內容真實等,歐盟即以「通用標章」來識別「資料中介服務提供者」及「資料利他主義組織」。我國法務部、司法院、高等檢察署、法務部調查局和內政部警政署等機關共同推動司法聯盟鏈,並於2022年推出「b-JADE證明標章」,透過認證機制確保鏈下之數位資料於上鏈前具有可信任性。通過驗證並取得「b-JADE證明標章」的機關、機構或團體等組織,對外可證明其具備資料治理暨管理能力及保護數位資料之能力,且可取得申請加入「司法聯盟鏈」之機會。 本文同步刊登於TIPS網站(https://www.tips.org.tw)