美國能源關鍵基礎設施議題觀察

刊登期別
第25卷,第8期,2013年08月
 

※ 美國能源關鍵基礎設施議題觀察, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6336&no=0&tp=1 (最後瀏覽日:2026/02/18)
引註此篇文章
你可能還會想看
歐盟公布數位單一市場下ICT標準化優先發展項目

  歐盟於2016年4月19日公布數位單一市場下ICT標準化優先發展項目(ICT Standardisation Priorities for the Digital Single Market),包括:5G通訊、雲端運算、智慧聯網、巨量資料技術、以及網路安全等,作為目前數位單一市場發展的基礎。相關影響產業包含:智慧健康、智慧能源、智慧運輸系統、電動車、智慧家居、以及智慧城市等。其三大主軸依次說明如下: 1. ICT標準建立為數位單一市場發展核心 歐盟將依1025/2012規則為基礎,進行標準化建立,因此將聚焦在數位單一市場需要發展的核心技術領域,優先進行標準訂定。 2. 因應全球技術變遷發展 ICT標準發展主要仍以產業為導向,且由產業自願性採納,建立之原則包括應具備透明性、開放、公平與一致性、有效與連結性等,此同時也能促成歐洲創新能量之發展。 3.以雙主軸計畫優先發展ICT標準設立 (1)首先歐盟執委會將確認數位單一市場優先發展之五項領域,並且設立發展時程。 (2)針對上述的優先發展領域,歐盟將進行施行檢視以及相關細項。   在5G通訊部分,預計將透過5G公私協力合作發展,同時以目前產業的需求為發展導向;在雲端運算方面,歐盟將以資金補助方式,促進雲端應用的互通性與易取性發展,並且支持企業,尤其在中小企業部分,以服務層級協議為基礎,協助採用雲端運算服務;在智慧聯網發展部分,主要為發展技術、介面、Open API等,建立準則,並預計將智慧聯網標準納入成為政府採購項目之一;在網路安全性部分,在上述發展技術領域當中,資料安全與隱私保護為核心議題,因此除了透過公司協力方式發展安全技術以外,同時也鼓勵業者應該設計著手保護隱私等概念優先納入技術之中;關於巨量資料技術部分,包括跨部門技術整合、資料與後設資料有更佳的互通性。此外,尚包括資料與軟體基礎設施服務,提供科學資料的交換、執行資料管理計畫、品質驗證、信賴性與透明性等原則。   最後,在可能受影響之產業方面,以智慧健康發展為例,智慧健康必須符合病人預期要求,如病人安全維護以及達到更佳的健康照護體系。因此,互通性的標準為當中關鍵的角色,未來亦有助於發展各國之間跨境醫療照護實踐。在電子病歷交換方面,從病人病歷摘要、電子處方簽等等,在符合個資保護條件之下,建立互通性標準可使疾病的治療更為完善。歐盟未來將持續鼓勵各會員國之間標準互通性之發展,包含目前行動健康應用程式的使用,以及未來遠距醫療應用。後續,歐盟將從2016年開始至2017年,持續針對標準建立進行討論會議,預計以資金費用補助以及其他政策方式輔導發展,同時也在2016年6月提出規劃說明使歐盟標準化政策發展符合現代化。

印度政府發布監管數位市場法案

印度政府發布監管數位市場法案 資訊工業策進會科技法律研究所 2024年06月25日 印度數位競爭法委員會(Committee on Digital Competition Law, CDCL)於2024年3月12日發布數位競爭法委員會報告,建議制定單獨法律規範數位市場競爭,同時發布《數位競爭法》草案(Draft Digital Competition Bill,下稱本草案),使印度競爭委員會(Competition Commission of India, CCI,下稱委員會)能夠在反競爭行為發生前介入調查,草案發布後公開徵求公眾意見至2024年5月15日,將參考公眾意見後再行發布本草案後續發展。 壹、緣起 印度企業事務部(Ministry of Corporate Affairs, MCA)於2023年2月6日成立數位競爭法委員會,主要由產業商會、政府機關以及學者組成,目的是檢視現行印度2002年《競爭法》是否足以解決數位經濟成長衍伸的問題。爾後於2024年3月發布數位競爭法委員會報告,數位競爭法委員會認為應有新的事前管制補充現行競爭法的事後管制模式,在動態的數位市場中於必要時進行事前干預,防止反競爭行為發生。 在數位競爭法委員會報告[1]中提出9項反競爭行為態樣,包含反導向(Anti-steering)、自我偏好(Self preferencing)、綑綁及搭售(Bundling and tying)、非公開資訊使用(use of non-public data)、掠奪性定價(Predatory pricing)、排他性協議(Exclusive tie-ups)、搜尋及排名偏好(Search and ranking preferencing)、限制第三方應用程式(Restricting third party applications)、以及廣告市場整合(Advertising consolidation)等,將以上述反競爭行為為核心制定事前管制措施。 貳、本草案介紹 基於上述建立事前管制的報告結論,數位競爭法委員會連同報告一併提出本草案以回應反競爭行為的事前管制方向,本草案主要有四項重點以下整理。 一、適用範圍與對象 本草案適用於所有在印度境內提供核心數位服務的所有企業,包含延伸到印度境外且對本草案所規定義務有影響的行為,核心數位服務包含線上搜尋引擎、線上社交網路服務、影片分享平台服務、人際通訊服務、作業系統、網路瀏覽器、雲端服務、廣告服務、以及線上中介服務等。 二、對具有系統重要性數位企業之定義 具有系統重要性數位企業(Systemically Significant Digital Enterprise, SSDE,下稱重要企業)需要符合兩項標準,分別是財務標準及用戶標準,如果企業屬於集團則數值以集團整體計算: (一)財務標準 財務標準是在三個財政年度中達成以下任一項: 1. 印度境內營業額高於400億印度盧比; 2. 全球營業額高於300億美元; 3. 印度的商品總價值高於1600億印度盧比; 4. 全球市值高於750億美元。 (二)用戶標準 用戶標準是在三個財政年度中達成以下任一項: 1. 在印度提供的核心數位服務達到1000萬終端用戶; 2. 在印度提供的核心數位服務達到1萬企業用戶。 三、對重要企業及關係企業之指定 (一)符合條件企業之通報義務 當企業的核心數位服務達到前述雙門檻後90天內應通知委員會,如該企業有所屬集團應一併向委員會揭露該所屬集團有直接或間接參與該核心數位服務的其他企業,委員會得透過行政命令指定該企業為重要企業,有直接或間接參與的其他企業得指定為關聯數位企業(Associate Digital Enterprise, ADE)。 委員會可要求未主動提供相關資訊的企業提供必要資訊,如符合上述門檻則指定為重要企業。 委員會在確定企業符合雙門檻後應通知企業給予陳述意見機會,說明不符合系統重要性之理由。企業若未提供必要資訊或提供不完整或錯誤資訊,仍得在聽取企業意見後指定,企業不得有規避指定之行為。 (二)指定未達門檻企業之權力 除指定前述符合雙門檻之企業外,對於在核心數位服務領域有重要影響力但未符合雙門檻的企業,委員會得參酌企業營業額、企業規模與資源、企業市場力量、網路效應、市場結構、社會義務等要素直接指定,效期為三年。 四、重要企業之義務 重要企業被指定後應建立透明有效的投訴處理及法遵機制,並定期向委員會報告履行下列義務與相關規定所採取之措施。 (一)禁止反競爭行為義務 不得有自我偏好、限制第三方應用程式使用、反導向、搭售或綑綁等反競爭行為,並以公平和透明交易的態度與用戶合作。 (二)資訊使用義務 不得使用企業用戶的非公開資訊與之競爭,且不得未經用戶同意混合或交叉使用,或允許第三方使用不同服務所蒐集的用戶資訊,並實現資訊可攜性。 參、本草案評析 數位競爭委員會報告及本草案的發布宣示委員會將監管大型科技公司的反競爭行為,本草案參考了歐盟數位市場法(Digital Markets Act, DMA)對於守門人(gatekeepers)的規定及義務,對於重要企業賦予禁止反競爭行為的義務,雖然本草案仍在意見蒐集階段,是否施行仍須追蹤觀察。 本草案參考DMA規定監管大型科技公司代表印度政府認為數位市場的事前管制是必要的,擔心市場失靈的風險存在,但包含資訊科技與創新基金會[2](Information Technology and Innovation Foundation, ITIF)、市場真相[3](Truth on the Market)、網路自由基金會[4](Internet Freedom Foundation)等單位對於本草案都提出質疑,認為本草案會阻礙數位市場創新,且印度的數位市場尚未成熟,貿然實施會損害印度的數位競爭力,阻礙對印度的數位投資。 40家印度新創公司發表聲明[5]支持本草案的推動,認為事前管制可以遏止Big Tech的反競爭行為,解決新創公司所擔心的發展問題,為新創環境提供空間。同時新創公司擔心門檻過低,阻礙非重要企業的發展,應提高門檻針對佔據主導地位的企業。 我國的數位市場政策仍有立法空間,該傾向管制市場或是鼓勵創新投資需要考量我國數位市場成熟度、規模、影響力等要素,印度已經跨出數位市場治理第一步,我國應持續追蹤各國法制政策,以滾動調整、擬定適合我國的數位市場政策。 [1] MINISTRY OF CORPORATE AFFAIRS, Report of the Committee on Digital Competition Law 27 (2024). [2] Comments to the Indian Ministry of Corporate Affairs Regarding Digital Competition Law, INFORMATION TECHNOLOGY & INNOVATION FOUNDATION, https://itif.org/publications/2024/05/15/comments-to-the-indian-ministry-of-corporate-affairs-regarding-digital-competition-law/ (last visited June 25, 2024). [3] India Should Question Europe’s Digital-Regulation Strategy, Truth on the Market, https://truthonthemarket.com/2024/04/12/india-should-question-europes-digital-regulation-strategy/?_gl=1*1mrmph7*_ga*MTI0MTU5NTkwMS4xNzE4MzM2OTUz*_ga_R1FRMJTK15*MTcxODMzNjk1Mi4xLjAuMTcxODMzNjk2MS4wLjAuMA. (last visited June 25, 2024). [4] Summary of IFF’s submission on the draft Digital Competition Bill, Internet Freedom Foundation, https://internetfreedom.in/iffs-submission-on-the-digital-competition-bill/ (last visited June 25, 2024). [5] 40 Indian Startups urge MCA to move forward with Digital Competition Bill; 'not give in to delaying tactics by Big Tech', STORYBOARD18, May 16, 2024, https://www.storyboard18.com/digital/40-indian-startups-urge-mca-to-move-forward-with-digital-competition-bill-not-give-in-to-delaying-tactics-by-big-tech-31771.htm (last visited June 25, 2024).

韓國人工智慧風險管理趨勢研析

韓國人工智慧風險管理趨勢研析 資訊工業策進會科技法律研究所 2020年6月25日   人工智慧技術正不斷地突飛猛進,後更因深度學習應用帶來令人難以置信的進步,迅速成為眾多產業轉型的重要推手。然而,當眾人專注於追求人工智慧的逐利時,也隱然意識到人工智慧與現實世界的互動,似已超越人類認知能力,或依當下技術知識經驗仍難加以掌握。以自駕車為例,其利用感測器感知外界進行影像辨識、理解預測進而做出決策的整體流程上,不論是在路人、車輛等圖像辨識、現場就路人及車輛行動之預測,乃至後端根據前階段路人、車輛行動預測與現在位置判斷最佳路徑的過程,處處是不可測的風險。申言之,從辨識正確率、現場狀況理解度至演算法決策來說,吾人所得掌控者有限。主因在於人工智慧的複雜與靈活性特色,實難通過統一概念加以界定。次者是人工智慧的自動化決策本身,事實上難以被確實地預見。甚至,就人工智慧可控性上,亦充斥各類不確定要素,特別是訓練資料偏差、又或設計者主觀意識之偏頗都可能造成預想之外的結果。   截至目前為止,人工智慧應用已然帶來已引發諸多風險議題,包含於開發、設計及製造端所論及之風險議題涵蓋歧視與偏見,如資料偏差、樣本資料結構性不平等[1]致使機器學習或有偏誤,進而影響判斷,產出具有歧視或偏見之結果[2];個人資料及隱私保護上,則係因人工智慧訓練對資料具有大量需求,涉及個人資料部分,將面臨蒐集(踐行告知程序)、處理和利用(於當事人同意之範圍內處理、利用)是否善盡保護義務與合乎法規要求;演算法黑箱帶來不透明的決策,難以預測與檢驗決策流程、判準是否有誤[3]。就此,考慮到人工智慧之重要性與風險,或有必要立基於風險預防理念進行相關風險控管,甚或以風險責任分擔角度,討論相關權責分配,以應對未來可能衍生的危害或重大風險。   人工智慧風險控管之法律基礎無法悖於倫理道德基礎。觀諸國際間討論,韓國早在2007年即已倡議機器人道德理念,並在2008年起接連有相關立法舉措。本文將以之為中心,探究其人工智慧在風險控管之相關立法政策措施,盼可從韓國做法中反思我國推行人工智慧風險管理之方向。 壹、事件摘要 一、韓國智慧機器人相關法制措施 (一)《智慧機器人發展和促進法》風險管控介紹   2008年9月韓國《智慧機器人發展和促進法》(지능형 로봇 개발 및 보급 촉진법)正式生效。該法旨在鋪設智慧機器人產業發展之法律基礎,包含在法律中嘗試引入智慧機器人定義(指通過識別外部環境並判斷狀況後自動運行之機器設備,包含機器設備運行所必要軟體),以此作為後續促進產業發展、規劃機器人責任歸屬或保險等討論之開展基礎;另外也以促進產業發展觀點,訂定產品安全開發與布建之支持法源依據;挹注國家科研能量確保技術穩定;建置智慧機器人產業分類系統,依此做為機器人產業統計基礎,為國家在機器人管理及政策提供相關數據。   其中,特別的是除了促進性規範外,亦首度於法律提出機器人倫理道德的概念,賦予主管機關訂定與「機器人倫理道德憲章」(로봇윤리헌장)相關內容之義務。   所謂「機器人倫理道德憲章」,係指針對智慧機器人功能及其智慧化發展,規範製造和使用人員之指導方針,以防杜危險發生並避免機器人不利於人類生活品質。換言之,機器人倫理道德憲章可認為是針對智慧機器人開發、製造、使用上的準則,盼可用以防止因智慧機器人功能而衍生之社會損害。就此,韓國工商部曾擬定《機器人倫理道德憲章草案》,可參考如下: 第一條(目標)機器人倫理道德憲章目標係為人類和機器人共存共榮,並確認以人類爲中心的倫理規範。 第二條(人與機器人的共同原則)人類和機器人應當維護相互之間生命的尊嚴、資訊和工程倫理。 第三條(人類倫理)人類在製造和使用機器人時,必須使用良好的方法判斷和決定。 第四條(機器人倫理)機器人是順從人類命令的朋友或是協助者、夥伴,不得傷害人類。 第五條(製造商倫理規範)機器人製造商有義務製造維護人類尊嚴之機器人,同時,必須承擔回收機器人、資訊保護義務。 第六條(使用者倫理)機器人使用者應當尊重機器人爲人類的朋友,禁止非法改造和濫用機器人。 第七條(實施的承諾)政府和地方政府應實施有效措施,以體現《憲章》的精神[4]。   觀察《智慧機器人發展和促進法》內涵,富有藉重法律效果與效能引領智慧機器人產業發展之精神,企圖形成政府政策借助立法促成經濟層面活動向上發展。然而,隨智慧機器人技術逐漸深入社會,韓國旋即意識到人工智慧在權益維護、風險管控上仍有進一步補強之必要,進而提出《機器人基本法草案》,並開展韓國在機器人倫理道德、歸責原則之相關討論,以順應社會整體的變革。 (二)《機器人基本法草案》   如前所述,意識到人工智慧發展已然滲入日常生活,有必要在機器人普及化的社會接受過程中,應對各類問題預先防範。韓國國會議員遂於2017年7月19日提出《機器人基本法草案》(로봇기본법)以反映機器人發展趨勢與問題。   《機器人基本法草案》主要目的是為機器人融入社會過程中的政策方向、原則進行引導,以有助於機器人產業健全發展。是以,該法在風險控管部分,通過二類做法予以調控,一是建立倫理道德準則之原則、二是嘗試提出歸責原則以釐清相關應用所生之爭議。   一者,藉道德倫理界線之提出使產業更為允當運用人工智慧。借用產品生命週期之概念,分就設計、製造以及使用者責任三階段規範。在設計階段,著重於產品內部構造、軟體介面設計的安全性,另就不侵犯人權及社會利益上,強調預先從設計確保產品永續性、倫理性及使用上的安全性;在製造階段,則從遵法性、說明義務及產品維護修繕責任等,揭示製造商在產品製造、銷售應行之事項;最後,則從使用者角度,以應用階段各項自律、他律規範,明示遵法義務與道德倫理原則,並特別指明宜避免過度成癮。   次者,在責任分配與歸屬上,於現行法令無以適用情況下,允許受損害者得向機器人之銷售者或提供者求償。然而,為免製造商或銷售者過度承擔賠償責任之風險,亦設置免責條款,規定當產品因缺陷致使損害發生,而該缺陷係以當時技術水準所無法發現之情況,或是該缺陷是製造商遵守當時機器人法令所規定標準所肇致,則將免除製造商之損害賠償責任。   綜合前述,《機器人基本法草案》在倫理道德及責任分配歸屬的風險管控上,提出諸多可資參考之方式,然而在基本法審議過程中,韓國政府認為雖有必要管制風險,卻不宜過早以立法手段介入遏止創新,而未能通過韓國國民議會。 (三)韓國人工智慧國家戰略   雖然《機器人基本法草案》未能立法通過,然而韓國相關立法脈絡已展現除關注於促進智慧機器人產業發展外,在倫理道德、責任上的風險調控亦不可偏廢態勢,且從智慧機器人進一步聚焦於人工智慧。   2019年12月第53屆總理會議(국무회의)[5],韓國擬定涵蓋科學資通訊技術部在內所有部會共同推動之「人工智慧國家戰略」(AI 국가전략)作為橫跨經濟和社會的創新專案[6],以攻守兼備方式發展人工智慧。分從技術、產業、社會三方面著手,為韓國發展人工智慧半導體產業取得先機,進而拔得在相關領域的頭籌;次者,完備先進資通訊技術基礎設施,借力人工智慧積極轉型為新世代數位政府;其三,從教育扎根,建設人工智慧教育體系以培植相關領域專業人才;第四,秉持「以人為本」精神發展人工智慧,建立人工智慧倫理原則、擴張就業安全網保障勞工,使人工智慧所產生之效益可散發至社會各個角落。預計通過該戰略,將可在2030年壯大韓國之數位競爭力,使人工智慧經濟產值增長至4550000億韓圜(約3800億美元),提升國民生活品質[7]。   整體而言,該戰略建立基於技術的立法、以人為本的道德以及改善整體社會法律體系三者為核心。基於技術的立法,如《信用資訊法》修訂,允許假名化資料利用,以鬆綁人工智慧資料應用需求,並平衡隱私保障;以人為本的道德,像是參考國際間道德倫理之標準,推行「人工智慧道德標準行動計畫」(AI 윤리기준 및 실천방안 마련),加速研擬建立在安全、責任或是擔保上的規範[8];改善整體社會法律體系,包含修正《國民就業援助法》擴大就業安全網,透過保險、教育、就業支援等方式協助受人工智慧衝擊影響之勞工、《就業政策基本法》中研擬為人工智慧業務建立相應人才教育。三者之推動,除帶動人工智慧產業蓬勃發展外,也兼顧社會層面道德、權益保障。 貳、重點說明 一、以剛性立法手段推進產業發展   觀察韓國,其人工智慧發展態度係以鼓勵為重。主因在於對企業來說,採用新興科技應用或可能囿於法遵成本、研發投資耗費過鉅、相關領域人才稀缺等多重因素而有所疑慮。有鑑於前開問題,韓國以正面態度,在風險控管措施上,嘗試藉由法規手段解消人工智慧發展所面臨之問題,即在賦予政府確實制訂與推進人工智慧發展政策責任,使業者可預期政府態度;次者,設置法律作為行政機關提供產品安全開發與布建支援依據,確保科研能量技術的穩定;再者,藉由智慧機器人分類系統建立產業管理與統計基礎,俾利後續依統計數據進行決策。   至於權益保障、風險如何評價及規範,雖有論者倡議另制定《機器人基本法草案》彌補《智慧機器人發展和促進法》於法律內部體系權利價值詮釋上的缺陷,然經立法成本與當時技術成熟度之衡量,並未過早規範技術之發展。 二、借軟性規範措施型塑兼容並顧之環境   另方面,觀察韓國在面對人工智慧機器人時的應對方式,發現在促進發展上,韓國無不餘力地大力採用剛性立法手段,以鋪設技術、投資所需之基礎建設及支援。而就尚難定論之技術風險管控,像是倫理道德、歸責原則調控等,考量技術尚未臻成熟,實難以剛性立法方式加之管理,而有以政策方式先試先行之傾向,形塑具有包容彈性之環境,鼓勵人工智慧機器人產業之投入,並依此作為後續法規調適之基礎。   鑒於人工智慧機器人所涉領域之多元,誠然有必要以宏觀角度全盤檢視與調適相應之規範及措施。故而,韓國2019年底提出富含權益保障與經濟逐利精神之「人工智慧國家戰略」,並鏈結不同部會共司建立彈性包容人工智慧機器人產業之環境。 參、事件評析   綜觀上述,韓國面對人工智慧及機器人,對內,以剛性立法手段,先行鋪設智慧機器人產業發展之基礎,包含界定智慧機器人範圍、賦予行政機關訂定倫理規範等一定義務、設置行政支持法源依據、以分類系統規劃作為數據統計基礎進行決策等,以拉抬、激勵企業投入研發,促成經濟層面活動之擴散與發酵;對外,以軟性規範宣示韓國政府發展智慧機器人產業態度、吸引國際間產學研能量挹注,並同步促成內部社會法體制之調整,不難看出韓國政府的企圖與決心,且整體上已約略有鼓勵、促進逐漸轉變為管理層面意味。   在我國方面,亦已意識到人工智慧風險管理之重要性,立法委員並在2019年5月倡議《人工智慧發展基本法草案》希望以制定基本法之方式,從研究、開發乃至整合等,厚植我國人工智慧實力,並嘗試建立人工智慧開發準則與倫理原則。韓國前述有關人工智慧之規範作法,或許可茲我國借鏡,就促進人工智慧技術經濟層面效益之面向,可由政府擬定具實質效力之法規範推動之;就現尚難明確定位之倫理準則及風險控管,採用軟性規範方式,先行以具包容性之政策、指引等作法試行,以待日後技術臻至成熟穩定,再行考量轉化為立法管理之必要。 [1] Crawford, K. et al. The AI Now Report: The Social and Economic Implications of Artificial Intelligence Technologies in the Near-Term, AI Now, 2016, https://ainowinstitute.org/AI_Now_2016_Report.pdf (last visited May. 22, 2019) [2] Cassie Kozyrkov, What is AI bias?, https://towardsdatascience.com/what-is-ai-bias-6606a3bcb814 (last visited May. 22, 2019) [3] BBC, The real risks of Artificial Intelligence, http://www.bbc.com/future/story/20161110-the-real-risks-of-artificial-intelligence(last visited May. 22, 2019). [4] 김성원 선임,지능정보사회의 도래와 법·윤리적 과제- 인공지능기술의 발달을 중심으로 -, National Industry Promotion Agency(2017/11/15), p10. [5] 總理會議係韓國特有的系統,主要由總統、總理以及15位至30位不等之國務院成員共同組成,成員包含各部會之首長。主要職能是做為國家決策的機構,並協調政策或行政事務。詳細資料可參見:http://theme.archives.go.kr/next/cabinet/viewIntro.do。 [6] 〈정부, AI 국가전략 발표…”AI 반도체 세계 1위 목표”〉,Bloter,2019/12/17,http://www.bloter.net/archives/364678 (最後瀏覽日:2020/2/1)。 [7] 〈인공지능(AI) 국가전략 발표〉,과학기술정보통신부,2019/12/17,https://www.msit.go.kr/web/msipContents/contentsView.do?cateId=_policycom2&artId=2405727 (最後瀏覽日:2020/2/1)。 [8]〈인공지능 국가전략〉,관계부처 합동,2019/12,頁36-38。

美國FTC修正廣告使用推薦與見證指南

  美國聯邦交易委員會(Federal Trade Commission,FTC)於2009年10月5日公佈了新修正的「廣告使用推薦與見證指南(Guides Concerning the Use of Endorsements and Testimonials in Advertising)」,這是該指南自1980年制定以來第一次的更新,並於今年12月1日起生效。此次修訂特別針對商品服務使用心得做出規範,規範亦適用於社交媒體(如Facebook、Twitter及各種類型的部落格等具互動性的媒體)中之心得分享,未來在社交媒體對商品或服務所做出的各種評論,都有可能成為FTC管制的對象。     在社交媒體中所傳遞之商品心得訊息,特別是名人(在該領域分享心得出名者)所分享之訊息,對於網路使用者或消費者之影響力甚大,甚至會改變其是否選擇消費該商品或服務之意願,但其真實性卻未必有相當之保障。有鑑於此,FTC於新修正之指南中即對於心得分享之訊息作出相應規範,重點如下: 1.心得分享者若由商品或服務提供者處受有金錢或相當程度的利益給付,即非單純之心得分享,而有與廣告相同之性質。因此若有虛偽不實陳述的狀況,亦視為是不實廣告。 2.心得分享者必須揭露其與商品或服務提供者的利益關係,使其他消費者明瞭。 3.廣告中若有引用研究結果,而該研究機構為該公司所贊助時,廣告中必須揭露兩者的利益關係。 4.指南同時適用於談話性節目以及社交媒體上所為之心得分享。 而違反上述規定者,可能會依美國聯邦交易委員會法第5條(FTC Act Sec.5)之相關規定每次最高得處以1萬1千美元罰鍰。     此規定之公布引起了部落客(部落格使用者)之質疑,因此FTC廣告實務科(The Division of advertising Practices)之副科長Richard Cleland特別對此做出澄清,其指出:「FTC不會立刻處以罰鍰,也並非所有個案均嚴重至須處以罰鍰。較有可能的作法是,先以警告函警告違規的部落客。且FTC無權對違反FTC法案的行為直接處以罰鍰,若事態嚴重,則FTC會將案件移送地方法院,由法院做出各種處斷,最重可至罰鍰。」     此一指南的約束,固然提供了消費者分辨廣告與心得分享的方式,但是關於更細部的操作,例如何時可認為部落客與商品及服務業者有利益關係,仍有待實務的累積。

TOP