為因應日本2014年接連發生重大營業秘密外洩之事件而使日本國內公司蒙受鉅額損失,日本經濟產業省於去年9月開始,積極地展開《不正競爭防止法》修法專家會議,並在2015年1月15日舉行的會議上,揭露了彙整各界公開意見後之《不正競爭防止法》中期報告書(中間とりまとめ),以作為未來修法方向之指引。
該報告書列出之修法方向區分為民事及刑事規定。第一,民事的修正重點有以下三點:(1) 減輕原告(受害企業)之舉證責任,而改由被告(非法使用營業秘密之企業)負擔;(2) 除斥期間之延長:將現行法規定之除斥期間,由10年延至20年;(3) 使用非法營業秘密而製造的物品,禁止轉讓或出口;以及新增邊境措施之規範。
第二,刑事的修正重點則有以下六點:(1) 擴大國外犯罪的處罰範圍:目前現行法僅規範「日本國內所管理之營業秘密」在國外「使用、開示」 之行為,未來將新增處罰在國外之「取得」營業秘密之行為;(2) 新增未遂犯規定,同時將繼續檢討新增共犯及教唆之處罰態樣;(3) 現行法僅規範竊取營業秘密者本人以及藉由前者直接不法取得營業秘密者為處罰對象,但鑒於智慧型手機、平版電腦等裝置(携帯情報通信端末)之普及,造成營業秘密的竊取及使用型態趨向多樣化,是故未來將新增第三人不法取得之相關處罰規定;(4) 使用非法營業秘密而製造的物品,禁止轉讓或出口:新增相關刑罰規定;(5) 法定刑之提高:目前個人最高罰金為1000萬日圓、企業則為3億日圓,未來預計調整罰金之上限;並且,將新增沒收犯罪收益及海外加重處罰之規定;(6) 擬由告訴乃論改為非告訴乃論。
綜上,經產省力爭在2015年1月26日開始的通常國會期間內,依上述之改正要點為基礎,正式提交《不正競爭防止法》之修正案,預計最快將於2016年開始實行新法 ,後續的立法進度,值得吾人持續關注。
歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。 《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。 歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。
歐盟於YouTube架設影音分享頻道EU Tube繼YouTube對美國總統大選的影響力逐漸受到各界矚目後,大西洋彼岸的歐盟執行委員會(European Commission),也漸體認到影音分享網站在商業應用外,對言論傳播乃至於政治活動之潛在影響。 有鑑於此,歐盟執行委員會甫於上月二十九日,於YouTube網站上增置一個名為 “EU Tube” 的視聽頻道,以做為歐盟(European Union)官方和歐洲公民間的溝通渠道。 關於此種利用線上影音分享網站作為政府資訊傳播和政策公開宣傳的創舉,有幾點值得國內注意。 首先,此一歐盟執行委員會與YouTube簽訂的頻道協議,乃是非專屬的協定。換言之,歐盟執行委員會仍可同時與其他網站或媒體簽訂類似之服務協議。其次,EU Tube之內容亦不僅限於硬性的政策或行動討論,而包含了從氣候變遷、能源議題到移民等各種公民相關事項,甚至有內容大膽的 ”Film Lovers Will Love This!” 的前衛影片。更有甚之,使用者對於不同影音檔點擊觀看次數(有數百萬人次與僅一千人次的差異)的資訊,也可作為日後進一步分析利用的原始資料。不過,雖然歐盟極力推動其內部之語言多樣性,目前既有的影片仍以英文為主。 歐盟發言人強調,納入YouTube等網站為對外溝通管道的作法,是為了盡可能擴大與歐盟公民的聯繫,但主要仍以易受YouTube吸引的年輕人為主。由此可見,網路網路對不同年齡層、世代的影響仍有差異,而公領域與影音分享網站日漸深化的關係,也考驗傳統媒體和政治互動的準則。
FTC對廣告不實的孩童增高藥片開鍘為人父母最怕自己的小孩比不上別人,尤其是發育較慢、身高較矮等,許多廠商看準這點,大量推出營養補給品或健康食品,滿足父母親想使小孩長得又高又壯的願望。這樣的現象不僅在台灣發生,日前美國一家佛羅里達的廠商,製造並銷售聲稱可以為孩童和年輕人增加身高的藥片,不過這些藥品經證實都不具所聲稱的療效。廠商必須為其不實的廣告內容支付37萬5千美元的和解金,並且必須花費190萬美金刊登更正廣告,內容除說明他們廣告內容欺騙消費者外,還要說明任何一種營養補給品、食品或藥物的廣告內容,必須是真實且非屬於使人誤導的內容。FTC起訴被告的原因是被告的產品HeightMax無法提出確實證據,證明該公司商品能如所陳述的廣告內容,快速地使孩童和年輕人的身高增加。 HeightMax以英語和西班牙語在網際網路和收音機等方式播送廣告,並捏造一位名為William Thomson的生化博士,宣稱HeightMax在其臨床試驗與長期的研究後,可以在6個月內令使用者增加2至3英吋的身高等。FTC指出被告製作虛偽不實的廣告內容且無確實證據可供支持該公司的論述,經佛羅里達州法院宣判,被告Sunny Health Nutrition公司將支付37萬5千美元的和解金與190萬美金的廣告費用,來賠償消費者並為更正的內容。