韓國首爾高等法院部分駁回高通提出的行政訴訟

  韓國首爾高等法院第七行政庭(下稱:韓國高等法院)於2019年12月4日部分駁回高通對韓國公平交易委員會(Korea Fair Trade Commission,下稱:韓國公平會)提起的行政訴訟,高通仍需支付鉅額罰鍰。

  韓國公平會於2016年12月28日,曾針對高通干涉數據機晶片組(Modem Chipset)的對手廠商之商業活動,進而破壞市場競爭一事,開出史上最高額的行政罰鍰共1.0311兆韓元。當時韓國公平會指出,高通的標準必要專利(Standards-Essential Patents, SEPs)授權不符合「公平、合理、非歧視原則」(Fair, Reasonable and Non-Discriminatory, FRAND),希望藉由開罰徹底矯正高通的商業模式,不讓高通透過該商業模式不合理地維持並擴張其數據機晶片的獨佔地位,進而壓迫數據機晶片業者(如:聯發科或英特爾)和手持裝置(Handset)業者。高通不滿韓國公平會之行政處分,逕向韓國高等法院提出撤銷行政處分之訴,並請求暫緩執行。然而,高通所提出的暫緩執行請求,於2017年11月27日即被韓國高等法院駁回。至於高通所欲提起的撤銷行政處分之訴,韓國高等法院則於本次駁回。

  儘管韓國高等法院對韓國公平會的部分決議積極地表示贊同,並非照單全收,韓國高等法院於裁判要旨中指出:韓國公平會針對「全面性的專利組合授權」(Comprehensive Portfolio Licensing)請求矯正措施(Remedy)一事係屬違法,換言之,高通毋須逐一重啟授權談判。至於罰鍰和其他決議,韓國高等法院則認為有其合理性。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 韓國首爾高等法院部分駁回高通提出的行政訴訟, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8402&no=0&tp=1 (最後瀏覽日:2026/05/15)
引註此篇文章
你可能還會想看
產業創新條例因應放寬公司研發抵減、加強留才制度之修正草案

淺談中國網絡文化內容自審制於手機遊戲管理之影響

淺談中國網絡文化內容自審制於手機遊戲管理之影響 科技法律研究所 2013年12月31日 壹、前言   中國大陸文化部日前依據互聯網文化管理暫行規定第19條規定,頒布施行「網絡文化經營單位內容自審管理辦法」(簡稱自審管理辦法)。要求以營利爲目的提供「網絡文化產品及服務」之單位(即所謂的「網絡文化經營單位」),應進行自我審核,以確保內容之合法性。所謂「網絡文化產品及服務」依據互聯網文化管理暫行規定,包括網絡音樂、動漫、遊戲等文化產品及以此所為之製作、複製、進口、發行、播放等活動。據中國大陸文化部表示,制定本辦法是為了落實其國務院轉變政府職能、簡政放權的政策方向,特別是網絡遊戲中的手機遊戲部分,期待能透過企業自律機制,達到市場的有效管理。 貳、自審管理辦法重點說明   在具體做法上,自審管理辦法規範「網絡文化經營單位」必須符合四項具體要求,包括:(1)內容管理制度與部門:企業須建立內容管理制度與審核部門,明定內容審核之工作劃分、標準、流程及責任追究辦法;(2)內容審核人員:企業內部設置之內容審核部門須配置至少3名以上領有「內容審核人員證書」之審核人員,並指定其中1名審核人員為內容管理負責人,負責簽核其餘審核人員之審查意見;(3)踐行備案程序:企業內部於建立上述之審核程序後,應向所在地省級文化行政部門申報備案;(4)持續參與審核訓練:針對內容審核人員,省級文化行政部門將負責相關培訓考核及檢查監督工作,其中對於經考核合格者發給證書者,每年至少應參加1次後續培訓,以持續掌握內容審核的政策法規和相關知識。   針對未依該辦法實施自審制度之「網絡文化經營單位」,依據自審管理辦法第14條規定,則得由縣級以上文化行政部門或者文化市場綜合執法機構依照「互聯網文化管理暫行規定」第29條規定責令改正,並可根據情節輕重處20000元以下罰款。此外,依據自審管理辦法第13條規定,倘若內容審核人員出現重大審核失誤時,發證部門得注銷其「內容審核人員證書」。   最後,依照自審管理辦法第15條規定,相關「網絡文化產品及服務」在自審管理辦法施行前,如應踐行備案或批准程序,在施行後仍須按相關規定辦理,不會因企業自審制度建立而得以免除。 參、規範簡評   依照自審管理辦法規定,自審制度適用範圍涵蓋了所有應依法取得「網絡文化經營許可證」的網絡文化經營單位。據中國大陸文化部新聞稿指出,此舉將有助於端正手機遊戲市場亂象。其具體理由,本文簡要歸納如下,並附帶說明此措施對於台灣手機遊戲業者進入中國大陸市場將帶來之影響。   過去中國大陸文化部管理「網絡遊戲」,主要是透過「網絡遊戲管理暫行辦法」(簡稱暫行辦法)。當中針對「國產網絡遊戲」採取備案制,要求於營運日起30日內向其文化行政部門進行備案(暫行辦法第13條參照);「進口網絡遊戲」則採審查制,須事前獲得其文化行政部門審查批准,方可上線營運(暫行辦法第11條參照)。且解釋上所謂「網絡遊戲」並未排除「手機遊戲」,故外國業者在提供手機遊戲服務予中國大陸時,皆應授權當地具備「網絡文化經營許可證」之「網絡遊戲運營企業」進口並履行相關申報作業。   但現實上,基於手機遊戲開發成本低、週期短之特性,手機遊戲業者存在為數不少小規模企業,所開發遊戲數量自2011年以來呈現爆炸性成長。因而暫行辦法之相關管理要求,實際執行通常難以落實,便常見有手機遊戲規避上述申報作業,使得整體手機遊戲管理呈現真空狀態。   但此一管理困境,在施行自審管理辦法後,預期將有所改善。根據中國大陸文化部新聞稿指出,目前中國大陸手機遊戲市場主導權,已逐漸由遊戲開發商轉移至平台商。因此透過自審管理辦法下放內容審查權於大型平台上,再強化對大型平台的監管,可集中政府資源、擺脫過去針對個別遊戲業者的查緝困難。   同時,由於自審管理辦法要求企業應賦予內容審核人員獨立審核職權,官方新聞稿亦進一步指出內容管理負責人層級應提升至副總經理以上。一旦內容審核人員發生重大失職時,最重得注銷其審核權限。因而運作上將可間接影響企業人事權限分配,對於企業高層業務執行帶來一定程度箝制,進而達到有效管理之目的。   對於台灣業者而言,由於按照暫行辦法第12條規定,申報進口網絡遊戲內容審查者,必須為取得獨占授權之「網絡遊戲運營企業」。因此,台灣遊戲業者未來在授權遊戲於大陸業者營運時,應留意其合作之大陸「網絡文化經營單位」,是否有建立上述自審制度,以避免對其產品拓展產生不利影響。同時,應留意其是否有踐行相關進口網絡遊戲內容審查申報,以避免觸法。 資料來源: 《文化部關于實施〈網絡文化經營單位內容自審管理辦法〉的通知》(文市發〔2013〕39號),http://big5.gov.cn/gate/big5/www.gov.cn/zwgk/2013-08/22/content_2471896.htm (最後瀏覽日:2013/12/25)。 新华网,〈文化部放权网络文化企业内容自审 网游网络音乐先行试点〉,2013/08/20,http://news.xinhuanet.com/politics/2013-08/20/c_117021657.htm(最後瀏覽日:2013/12/25)。 中华人民共和国文化部文化市场司,〈庹祖海同志在贯彻落实《网络文化经营单位内容自审管理办法》视频会议上的讲话〉,2013/11/29,http://www.ccnt.gov.cn/sjzz/whscs_sjzz/whscs_zhxw/201312/t20131202_424345.htm(最後瀏覽日:2013/12/25)。

溫室氣體減量法草案出爐 新廠成本支出大增

  京都議定書已於二月正式生效,本年底將開始討論新興國家的管制措施,環保署預期,台灣最快將在二 ○ 一二年後,與其他新興工業國家並列為下一波管制對象。為了因應京都議定書未來的要求,我國已完成溫室氣體減量法的立法草案。未來政府將啟動總量管制的強制措施,明定溫室氣體總量管制等多項強制規範;並賦予經濟部可依法禁止或限制高耗能產業設置,或限制高碳類燃料輸入。惟未來新設工廠排放量必須列為企業總量管制的應削減量,雖然允許企業可與其他部門或不同產業類別交易排放量,但因成本支出大增,企業界認為影響投資意願而反彈聲浪甚大。   根據這項法案,一定規模以上的溫室氣體排放源,應採用最佳防制設施,新增溫室氣體排放量須列為實施總量管制後的「應削減量」,並作為環境影響評估審查通過承諾事項。也就是說,石化、鋼鐵等高耗能產業新設廠房、生產線時,依法必須使用高效能技術或設備,因而產生的溫室氣體量,亦必須在企業總排放量內進行削減。   惟這項規定,產業界認為向市場或向能源服務公司購買排放權,對新設工廠將大幅增加成本支出,影響投資意願,在環保署內審議時反彈聲浪甚大。由於產業界反彈甚大,環保署不但延後送出法案審議,同時考慮明定以「基限年」作為新設工廠是否須先在企業總量管制內削減,而基限年則視國際對新興國家管制動作而定。   法案並規定當國際規範我國溫室氣體應削減量時,啟動總量管制措施,企業必須依法削減既存的排放量,企業可與其他住宅或運輸部門交易,也可在同一產業類別或跨產業類別進行抵換或交易。如果總量管制仍無法達到減量目標時,將進一步實施碳稅新制。

歐盟執委會發布《受禁止人工智慧行為指引》

歐盟執委會發布《受禁止人工智慧行為指引》 資訊工業策進會科技法律研究所 2025年02月24日 歐盟繼《人工智慧法》[1](Artificial Intelligence Act, 下稱AI Act)於2024年8月1日正式生效後,針對該法中訂於2025年2月2日始實施之第5條1,有關「不可接受風險」之內容中明文禁止的人工智慧行為類型,由歐盟執委會於2025年2月4日發布《受禁止人工智慧行為指引》[2]。 壹、事件摘要 歐盟AI Act於2024年8月1日正式生效,為歐盟人工智慧系統引入統一之人工智慧風險分級規範,主要分為四個等級[3]: 1. 不可接受風險(Unacceptable risk) 2. 高風險(High risk) 3. 有限風險,具有特定透明度義務(Limited risk) 4. 最低風險或無風險(Minimal to no risk) AI Act之風險分級系統推出後,各界對於法規中所說的不同風險等級的系統,究竟於實務上如何判斷?該等系統實際上具備何種特徵?許多內容仍屬概要而不確定,不利於政府、企業遵循,亦不利於各界對人工智慧技術進行監督。是以歐盟本次針對「不可接受風險」之人工智慧系統,推出相關指引,目的在明確化規範內涵規範,協助主管機關與市場參與者予以遵循。 貳、重點說明 一、AI Act本文第5條1(a)、(b)-有害操縱、欺騙與剝削行為 (一)概念說明 本禁止行為規定旨在防止透過人工智慧系統施行操縱與剝削,使他人淪為實現特定目的工具之行為,以保護社會上最為脆弱且易受有害操控與剝削影響的群體。 (二)禁止施行本行為之前提要件 1.該行為必須構成將特定人工智慧系統「投放於歐盟市場」(placing on the market)[4]、「啟用」(putting into service)[5]或「使用」(use)[6]。 2.應用目的:該人工智慧系統所採用的技術具有能實質扭曲個人或團體行為的「目的」或「效果」,此種扭曲明顯削弱個人或團體做出正確決定的能力,導致其做出的決定偏離正常情形。 3.技術特性:關於(a)有害的操縱與欺騙部分,係指使用潛意識(超出個人意識範圍)、或刻意操控或欺騙的技術;關於(b)有害地利用弱勢群體部分,是指利用個人年齡、身心障礙或社會經濟狀況上弱點。 4.後果:該扭曲行為已造成或合理可預見將造成該個人、另一人或某群體的重大傷害。 5.因果關係:該人工智慧系統所採用的技術、個人或團體行為的扭曲,以及由此行為造成或可合理預見將造成的重大傷害之間,具備相當因果關係。 二、AI Act本文第5條1(c)-社會評分行為 (一)概念說明 本禁止行為規定旨在防止透過人工智慧系統進行「社會評分」可能對特定個人或團體產生歧視和不公平的結果,以及引發與歐盟價值觀不相容的社會控制與監視行為。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該人工智慧系統必須用於對一定期間內,自然人及群體的社會行為,或其已知、預測的個人特徵或人格特質進行評價或分類。 3.後果:透過該人工智慧系統所產生的社會評分,必須可能導致個人或群體,在與評分用資料生成或蒐集時無關的環境遭受不利待遇,或遭受與其行為嚴重性不合比例的不利待遇。 三、AI Act本文第5條1(d)-個人犯罪風險評估與預測行為 (一)概念說明 本禁止行為規定之目的,旨在考量自然人應依其實際行為接受評判,而非由人工智慧系統僅基於對自然人的剖析、人格特質或個人特徵等,即逕予評估或預測個人犯罪風險。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該人工智慧系統必須生成旨在評估或預測自然人施行犯罪行為風險的風險評估結果。 3.後果:前述風險評估結果僅依據於對自然人的剖析,或對其人格特質與個人特徵的評估。 4.除外規定:若人工智慧系統係基於與犯罪活動直接相關的客觀、可驗證事實,針對個人涉入犯罪活動之程度進行評估,則不適用本項禁止規定。 四、AI Act本文第5條1(e)-無差別地擷取(Untargeted Scraping)臉部影像之行為 (一)概念說明 本禁止行為規定之目的,旨在考量以人工智慧系統從網路或監視器影像中無差別地擷取臉部影像,用以建立或擴充人臉辨識資料庫,將嚴重干涉個人的隱私權與資料保護權,並剝奪其維持匿名的權利。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該行為以建立或擴充人臉辨識資料庫為目的。 3.技術特性:填充人臉辨識資料庫的方式係以人工智慧工具進行「無差別的擷取行為」。 4.因果關係:建立或擴充人臉辨識資料庫之影像來源,須為網路或監視器畫面。 五、AI Act本文第5條1(f)-情緒辨識行為 (一)概念說明 本禁止行為規定之目的,旨在考量情緒辨識可廣泛應用於分析消費者行為,以更有效率的手段執行媒體推廣、個人化推薦、監測群體情緒或注意力,以及測謊等目的。然而情緒表達在不同文化、情境與個人反應皆可能存在差異,缺乏明確性、較不可靠且難以普遍適用,因此應用情緒辨識可能導致歧視性結果,並侵害相關個人或群體的權利,尤以關係較不對等的職場與教育訓練環境應加以注意。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該系統係用於推斷情緒。 3.因果關係:該行為發生於職場或教育訓練機構。 4.除外規定:為醫療或安全目的而採用的人工智慧系統不在禁止範圍內。例如在醫療領域中,情緒辨識可協助偵測憂鬱症、預防自殺等,具有正面效果。 六、AI Act本文第5條1(g)-為推測敏感特徵所進行之生物辨識分類行為 (一)概念說明 本禁止行為規定之目的,旨在考量利用人工智慧之生物辨識分類系統(Biometric Categorisation System)[7],可依據自然人的生物辨識資料用以推斷其性取向、政治傾向、信仰或種族等「敏感特徵」在內的各類資訊,並可能在當事人不知情的情況下依據此資訊對自然人進行分類,進而可能導致不公平或歧視性待遇。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該行為係針對個人進行分類;而其辨識目的係為推斷其種族、政治傾向、工會成員身分、宗教或哲學信仰、性生活或性取向等。 3.技術特性:該系統必須為利用人工智慧,並依據自然人的生物辨識資料,將其歸類至特定類別之生物辨識分類系統。 4.因果關係:前述分類依據為其生物辨識資訊。 5.除外規定:本項禁止規定未涵蓋對合法取得的生物辨識資料進行標記(Labelling)或過濾(Filtering)行為,如用於執法目的等。 七、AI Act本文第5條1(h)-使用即時遠端生物辨識(Remote Biometric Identification, RBI)系統[8]執法[9]之行為 (一)概念說明 本禁止行為規定之目的,旨在考量在公共場所使用即時RBI系統進行執法,可能對人民權利與自由造成嚴重影響,使其遭受監視或間接阻礙其行使集會自由及其他基本權利。此外,RBI系統的不準確性,將可能導致針對年齡、族群、種族、性別或身心障礙等方面的偏見與歧視。 (二)禁止施行本行為之前提要件 1.該行為必須涉及對即時RBI系統的「使用」行為。 2.應用目的:使用目的須為執法需要。 3.技術特性:該系統必須為利用人工智慧,在無需自然人主動參與的情況下,透過遠距離比對個人生物辨識資料與參考資料庫中的生物辨識資料,從而達成識別自然人身份目的之RBI系統。 4.因果關係:其使用情境須具備即時性,且使用地點須為公共場所。 參、事件評析 人工智慧技術之發展固然帶來多樣化的運用方向,惟其所衍生的倫理議題仍應於全面使用前予以審慎考量。觀諸歐盟AI Act與《受禁止人工智慧行為指引》所羅列之各類行為,亦可觀察出立法者對人工智慧之便利性遭公、私部門用於「欺詐與利用」及「辨識與預測」,對《歐盟基本權利憲章》[10]中平等、自由等權利造成嚴重影響的擔憂。 為在促進創新與保護基本權利及歐盟價值觀間取得平衡,歐盟本次爰參考人工智慧系統提供者、使用者、民間組織、學術界、公部門、商業協會等多方利害關係人之意見,推出《受禁止人工智慧行為指引》,針對各項禁止行為提出「概念說明」與「成立條件」,期望協助提升歐盟AI Act主管機關等公部門執行相關規範時之法律明確性,並確保具體適用時的一致性。於歐盟內部開發、部署及使用人工智慧系統的私部門企業與組織,則亦可作為實務參考,有助確保其自身在遵守AI Act所規定的各項義務前提下順利開展其業務。 [1]European Union, REGULATION (EU) 2024/1689 OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL (2024), https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=OJ:L_202401689 (last visited Feb. 24, 2025). [2]Commission publishes the Guidelines on prohibited artificial intelligence (AI) practices, as defined by the AI Act., European Commission, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act (last visited Feb. 24, 2025). [3]AI Act, European Commission, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai (last visited Feb. 24, 2025). [4]依據本指引第2.3點,所謂「投放於歐盟市場」(placing on the market),係指該人工智慧系統首次在歐盟市場「提供」;所謂「提供」,則係指在商業活動過程中,以收費或免費方式將該AI系統供應至歐盟市場供分發或使用。 [5]依據本指引第2.3點,所謂「啟用」(putting into service),係指人工智慧系統供應者為供應使用者首次使用或自行使用,而於歐盟內供應人工智慧系統。 [6]依據本指引第2.3點,「使用」(use)之範疇雖未在AI Act內容明確定義,惟應廣義理解為涵蓋人工智慧系統在「投放於歐盟市場」或「啟用」後,其生命週期內的任何使用或部署;另參考AI Act第5條的規範目的,所謂「使用」應包含任何受禁止的誤用行為。 [7]依據AI Act第3條(40)之定義,生物辨識分類系統係指一種依據自然人的生物辨識資料,將其歸類至特定類別之人工智慧系統。 [8]依據AI Act第3條(41)之定義,RBI系統係指一種在無需自然人主動參與的情況下,透過遠距離比對個人生物辨識資料與參考資料庫中的生物辨識資料,從而達成識別自然人身份目的之人工智慧系統。 [9]依據AI Act第3條(46)之定義,「執法(law enforcement)」一詞,係指由執法機關或其委任之代表,代替其執行目的包括預防、調查、偵測或起訴刑事犯罪,或執行刑事處罰,並涵蓋防範與應對公共安全威脅等範疇之行為。 [10]CHARTER OF FUNDAMENTAL RIGHTS OF THE EUROPEAN UNION, Official Journal of the European Union, https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:12012P/TXT (last visited Feb. 24, 2025).

TOP