英國政府制定監管計畫以應對科技巨頭帶來的問題

  英國政府於2022年5月6日宣布將針對大型企業(major firms)壟斷市場的情況制定新的監管計畫。該監管計畫將重新平衡大型與中小企業和消費者的關係,以利中小企業和消費者受到更好的保護,並使市場競爭環境更為公平。

  該監管計畫針對的大型企業,即是國際市場上的科技巨頭(tech giants),如Google and Facebook。此類科技巨頭擁有並控制大量用戶的網路資料,並將該資料應用在特定應用程式與瀏覽器的搜尋演算法上,以確保其市場壟斷地位,使潛在的競爭者難以進入市場,進而影響市場的公平競爭以及消費者的自由選擇權。為解決前揭問題,英國預計透過修法賦予競爭和市場管理局下的「數位市場部門」(Digital Markets Unit, DMU)法定權力與監管權限,並搭配措施與作法如下:

  1. 強化市場公平性:英國政府預計提出價格糾紛解決機制,平衡內容提供商(如媒體業與廣告業)與科技巨頭間的議價能力,以確保更為公平、透明的市場。此外,科技巨頭亦應將其演算法之資訊分享給一般公司,避免科技巨頭濫用其市場力量。
  2. 增進消費者權益:科技巨頭必須確保消費者在使用資訊設備或服務時有充分的自主權與選擇權。例如,於手機的IOS和 Android 系統之間轉換或是社交軟體帳戶之間的資訊移轉時不會喪失其資料和訊息。DMU也將限制公司預先安裝瀏覽器、社交軟體等APP,讓消費者在APP上有更多選擇權。而隨著新業者進入市場,智慧型手機用戶將可以有更多搜尋引擎和社交平台選擇。此外消費者亦可選擇退出具有針對性的個人化廣告發送,以達成讓消費者擁有更多的資料自主權。

  為能有效落實上述措施,DMU將有權指定特定企業為具有「戰略市場地位」(strategic market status)的公司。指定標準將依公司的營業額、對消費者的影響力、對市場活動的影響力、公司的活躍程度與規模等綜合評估,檢視其是否達到強大且根深蒂固的力量(substantial and entrenched market power)。DMU並將針對少數主導數位市場的企業應如何公平對待其用戶和其他公司提出行為準則。被指定的公司若違反相關規範,將面臨全球年營業額最高10%的罰款,如果連續違反,則可被處以全球每日營業額5%的額外罰款。

  英國政府期待透過新的監管計畫及未來的修法介入市場競爭,促使市場環境更為公平且適於創新,同時讓消費者擁有更多選擇權。英國新監管計畫之實施情形,值得持續關注。

相關連結
※ 英國政府制定監管計畫以應對科技巨頭帶來的問題, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8848&no=57&tp=1 (最後瀏覽日:2026/02/14)
引註此篇文章
你可能還會想看
美國通過《非自願私密影像移除法》 以遏止利用AI深偽技術之性犯罪

2025年5月19日美國總統川普簽署《非自願私密影像移除法》(Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks Act, TAKE IT DOWN Act),該法散播未經同意之親密影像,如深偽色情(deepfake porn)和報復性色情(revenge porn)視為犯罪行為。 長久以來非自願私密影像(Non-Consensual Intimate Image, NCII)所造成的傷害一直無法被有效處理,AI深偽技術出現之後讓問題變得更加複雜。美國目前僅有20個州對深偽影像設有專法,但各州對 NCII 的定義、刑責與處理方式差異甚大,受害者亦難以在第一時間快速將影像移除,導致二次創傷。 為解決前述問題,共和黨與民主黨展現高度共識,眾議院於2025年4月28日以409票同意、2票反對,壓倒性通過《非自願私密影像移除法》,並於同年5月19日獲川普總統簽署生效,此為眾議院首部管理人工智慧引發危害的重大立法。 《非自願私密影像移除法》重點與相關討論整理如下。 一、散布未經同意的私密影像屬刑事犯罪 依據《非自願私密影像移除法》,任何人若透過互動式電腦服務(interactive computer service)故意揭露或威脅散布可辨識個人之親密影像即構成刑事犯罪。親密影像包含真實私密影像(Authentic intimate visual depictions)或數位偽造影像(Digital forgeries)兩種情形,後者係指透過軟體、機器學習、人工智慧,或任何其他電腦產生或技術方式所創建之親密影像,包括改編、修改、操弄或變造真實影像,且從整體上來看,一般人難以與真實影像區分者。 二、受規範平台(covered platforms)應即時協助受害者移除相關影像 受規範平台係指係向公眾提供服務之網站、線上服務或行動應用程式,且該服務主要是提供一個平台,讓用戶得以分享其自行產製之內容(user-generated content),如訊息、影像、音訊、遊戲等;若該服務涉及發布、策劃、託管或提供未經同意的私密影像,亦屬本法所規範之平台。 受規範平台應自《非自願私密影像移除法》頒布日起一年內,建立一套機制供受害者或其代理人申請移除未經同意散布的私密影像。平台在收到移除請求後,應於48小時內移除該影像,並在合理範圍內努力搜尋並刪除所有明顯為該影像之複製品。若平台未能遵守此一規範,會被視為違反《聯邦貿易委員會法》(Federal Trade Commission Act)所定義之「不公平或欺騙性商業行為」,並適用該法的相關處罰機制,例如民事懲罰(civil penalty)等。 三、執法單位是否能有效執行是關鍵 《非自願私密影像移除法》授權聯邦貿易委員會(Federal Trade Commission, FTC)作為執法單位,然而由於川普政府近期大幅刪減聯邦機構的開銷與人力,FTC能否在48小時內移除相關私密影像備受質疑;亦有論者擔憂這項機制被濫用,恐成為政府打壓言論自由的政治工具,川普總統即公開表示他會利用這部法律來審查批評者的言論。此外,《非自願私密影像移除法》未設立反濫用條款,任何人都可要求平台刪除影像內容,加上平台有時間壓力可能會預防性刪除內容而非實質審查,形同變相限縮言論自由的空間。 《非自願私密影像移除法》是一部試圖回應數位性暴力與AI深偽技術新興威脅的里程碑式立法,反映出立法者對於保障隱私與防止科技濫用的高度共識。然而,該法利益良善但仍需面臨現實端的檢驗,能否公正且有效率的執法將成為成敗的關鍵。

中國大陸將加速行動遊戲審批程序、落實管制

  中國大陸國家新聞出版廣電總局於日前公告「國家新聞出版廣電總局貫徹落實國務院全面督查整改落實進展情況」,提出將針對移動網絡遊戲(下稱行動遊戲)審批制度進行改革,改善目前審批時間過長、效率不高問題。   據公告內容顯示,未來審批制度將朝向雙軌制方向發展,對於未涉及民族、宗教、歷史、政治、疆域等議題,且無故事情節或故事情節單純(如棋盤類等休閒益智遊戲)之陸製行動遊戲,將採取簡易審批制度,以提高審查效率。另外,將增倍審查專家員額至20名,以維持審查品質。在上述改革推動下,目標將縮短審查時間,由現行30天初審、15天複審期限,分別壓縮至15天及5天。其進一步具體做法,中國大陸國家新聞出版廣電總局現正研擬「關於規範移動網絡遊戲出版審批管理的通知」,預計於2014年12月下旬發布施行。   面對近幾年行動遊戲的興起,中國大陸政府不斷重申行動遊戲須符合網路遊戲審批相關規定。然現實是,在行動遊戲數量呈現爆炸性成長,以及生命週期短暫之特色下,遊戲業者未依規定送審情形,並不少見。此次改革的推動,加上先前其他部會針對行動遊戲已提出之配套管制方案(如工信部之APP黑名單數據庫、文化部之企業自審作法),可預期行動遊戲的內容管制將日趨落實。對此,我方行動遊戲開發業者宜留意相關發展,納入後續遊戲開發方向與市場策略布局之評估要素一環。

金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。

日本發布網路安全相關法令問答集

  日本國家網路安全中心(内閣サイバーセキュリティセンター,或稱National Information Security Center, NISC)於2020年3月2日發布「網路安全相關法令問答集」(サイバーセキュリティ関係法令Q&Aハンドブック),以回應日本內閣在2017年7月27日通過的「網路安全戰略」(サイバーセキュリティ戦略)中所提及應整理相關法制,以利企業實施網路安全措施與對策之決定。因此,內閣網路安全戰略本部(サイバーセキュリティ戦略本部)普及啟發‧人才培育專門調查會(普及啓発・人材育成専門調査会)於同年10月10日成立工作小組,針對網路安全相關法令進行推動與調查工作。   本問答集內容涉及13項法律議題,包括議題如下: 說明網路安全基本法(サイバーセキュリティ基本法)網路安全之定義與概要; 以公司法為核心,從經營體制觀點說明董事義務,例如建立內部控制機制,以確保系統審核與資料揭露之適當性; 以個人資料保護法為核心,例如說明個人資料的安全管理措施; 以公平交易法(不正競争防止法)為核心,說明在營業秘密的保護範圍內,利用提供特定資料與技術手段,來實施迴避行為係屬無效; 以勞動法規為核心,說明企業採取網路安全措施之組織與人為對策; 以資通訊網路、電信業者等為中心,說明IoT相關法律問題; 以契約關係為中心,說明電子簽章、資料交易、系統開發、雲端應用服務等議題; 網路安全相關證照制度,例如資訊處理安全確保支援人員; 說明其他網路安全議題,例如逆向工程、加密、訊息共享等; 說明發生網路安全相關事故之因應措施,例如數位鑑識; 說明當網路安全糾紛有涉民事訴訟時應注意之程序; 說明涉及網路安全之刑法規範; 描述日本企業在實施網路安全措施時,應注意之相關國際規範,例如歐盟一般資料保護規則(General Data Protection Regulation, GDPR)與資料在地化(Data Localization)等議題。   此外,隨著網路與現實空間的融合,各產業發展全球化,相關法規也日益增加,惟網路安全相關法規,在原無網路安全概念與相關法制的日本法上,卻鮮少有較為系統化的概括性彙編與解釋文件。因而盤點並釐清網路安全相關法令則成為首要任務,故研究小組著手進行調查研究,並將調查結果—「網路安全法律調查結果」(サイバーセキュリティ関係法令・ガイドライン調査結果)與「第四次關鍵基礎設施資訊安全措施行動計畫摘要表」(重要インフラの情報セキュリティ対策に係る第4次行動計画)作為本問答集之附錄文件以資參酌。最後,NISC期待透過本問答集,可作為企業實施具體網路安全對策之實務參考。

TOP