掌管競爭事務的歐盟執委會委員Margrethe Vestager於3月26日在柏林記者會上宣布,接下來的競爭調查將鎖定在電子商務領域。這項調查將涵蓋歐盟所有會員國,旨在調查是否有公司透過契約或其他障礙,限制消費者在歐洲境內進行跨境交易。縱使越來越多的歐洲商品和服務是經由網路來交易,歐盟內部的跨境線上交易卻成長緩慢。造成此現象的原因可能是由於語言隔閡、消費者喜好及會原國間法令的差異。然而,亦有跡象顯示,有些公司會採取相關措施來限制跨境線上交易。
因此,對於該領域的調查重心會放在如何加強識別及因應這些限制跨境交易的措施;以配合執委會的目標: 創造一個相連的數位單一市場。執委會委員 Margrethe Vestager會在接下來的星期提出該提案於委員會。
歐洲消費者屬於線上服務之狂熱使用者。在2014年,約有半數的歐洲消費者在線上消費;然而,在這半數內,僅有15% 的線上消費者是向歐盟其他會員國之業者購買。這顯示在歐盟境內,電子商務仍然有巨大的跨境障礙。例如: 技術障礙,如地理隔閡,將限制消費者從其所在地或使用其信用卡進入特定網站。
執委會委員Vestager因此決定向委員會提出對於電子商務領域的競爭調查,以促進執委會實現單一數位市場的目標。
該調查是執委會企圖把歐盟分裂的線上市場整合為單一數位市場的策略之一。經過分析後,若執委會認定有競爭爭議,會開啟案件調查,以確保電子商務領域已遵守禁止限制商業行為及濫用獨占地位之歐盟法規(歐盟運作條約第101條和第102條)
由日本金融廳(FSA)與各界相關人士組成的「虛擬貨幣交換產業相關研究會」(仮想通貨交換業等に関する研究会)於2018年11月2日再度召開會議,本次會議主要針對是否需就ICO監管予以討論。 按ICO,乃是指虛擬貨幣之首次代幣發行(Initial Coin Offering),即向社會大眾發行數位代幣(token),並收取主流虛擬貨幣之籌資行為。在過去,日本僅以向金融廳諮詢會報的方式督導,對於虛擬貨幣之交易所僅課予註冊義務,並未對於ICO行為予以規範。而ICO因其大量之籌資行為可能產生之風險如詐欺、非法募資或洗錢,從而日本金融廳研擬將ICO列入「金融商品交易法」規範之。 而就ICO是否有受到金融監管之必要,會議中主要之考量有以下兩點: 使用虛擬貨幣之行為是否具有金錢上融資之功能,會議中對於不具權利性質之虛擬貨幣認為無監管必要; 引入金融監督機制是否符合社會期待。 另外,會議中並就ICO和首次公開募股(Initial Public Offerings,以下簡稱IPO)進行比較,有認為,倘若ICO具有如同IPO籌集資金之經濟功能,並且也可能產生如同IPO之相同風險,理應受到相同之規範。可為之規範例如對於賣家進行最低度審查,避免透過籌資為詐欺之可能;限制權利內容模糊不清之虛擬貨幣流通,並對發行人之財務和業務狀況進行篩選;課予ICO負有如同IPO之揭露義務,並須在網站上公布對於投資人有影響性之資訊;使發行價格更有衡量基準。另外JVCEA(日本仮想通貨交換業協会)作為監管機構,擬對於ICO在銷售開始、銷售結束,甚至銷售結束後仍課予持續的情報提供義務。 而於後續2018年11月26日召開之第十次會議中,表示對於ICO在未來不會採取禁止之態度,仍保持鼓勵之立場,但對於投資人之保護需要更全面予以考量,減少利用ICO詐欺之情形。另外,對於虛擬貨幣交換業者,需要加強對客戶財產之管理和維護,亦可能對其施加信託義務,俾利加強投資人信心。 ICO在日本非常盛行,但也因此詐欺案件頻傳,對於日本將以何種方式監管ICO;對於虛擬貨幣交換業者之規範,對投資人之保護是否足夠;又或是此類規範將形成交換業者反抗,依目前會議頻繁討論之程度應很快會有定論。惟對於此種新創之產業,往往需在監管與鼓勵發展間求取平衡,而日本在虛擬貨幣之發展上,又領先亞洲各國,對於此次監管議題後續發展,實值關注,並得以借鏡我國,作為我國在相同議題上之參考。
歐盟提出現行個資保護指令規範之修正草案歐盟提出現行個資保護指令規範之修正草案 科技法律研究所 2013年10月07日 壹、事件摘要 歐盟於1995年所制定之「個人資料保護指令」(Data Protection Directive,95/46/EC,下稱個資保護指令),其基本原則確保了歐盟會員國個人資料基本權利之保障,後續也成為國際相關立法時之參考依據。但由於個資保護指令制定時為框架式立法模式,歐盟各會員國仍須將相關規定內國法化,導致各會員國間對於個人資料保護標準產生差距。 貳、重點說明 一、立法緣起 歐盟現行之「個資保護指令」是第一部解決關於個人資料處理與自由流通保護之指令,主要在於提供歐盟境內關於個人資料及隱私權保護之規定。但由於該指令使各會員國之規範不具統一性,且制定之時科技尚屬發展階段。為解決科技發展與各國形成之保護差距,歐盟執委會(European Commission)在2012年1 月25 日,向歐洲理事會(European Commission)及歐洲議會(European Parliament)正式提出「一般個人資料保護規則」(General Data Protection Regulation)草案共91 條。預計於2015年施行,並取代現行個資保護指令,全面並一致性適用於各會員國。 二、關鍵改變 本次一般個人資料保護規則草案相較於現行個資保護指令,主要有資料當事人權利行使新增與強化、當事人同意要件標準提高、適用主體擴大、申訴權力強化、資料管理人資料保護責任之加重、損害賠償與相關罰則之規定等,並將各項規定更加明確化,以解決長期以來歐盟會員國間因保護水準不一所形成之衝突現象。 參、事件評析 一般個人資料規則草案提出後,歐盟與英國分別針對新規則草案進行評估。歐盟執委會認為,新規則可協助歐盟境內解決長期以來因個資法保護水準不一所形成之衝突,進而為當地企業帶來約23億歐元之效益;但英國當地卻持反面見解,認為新法將使企業提高所需擔負之行政成本,且高規格之法遵要求也使資料管理人陷入難以遵守之情況,進而影響歐盟之競爭力。國際上激烈的討論聲浪與分歧之見解,也使得該規則草案自提出至今已一年多的時間,仍未正式拍板定案。 歐盟於1995年制定之個資保護指令,自1998年生效之後,不僅在各會員國進行個資保護時扮演關鍵性角色,更為國際上個人資料保護或隱私保護之參考依據,其動向更為各國所專注與留意。而隨著時代轉變與科技演進,歐盟期許未來不只是在歐盟境內,更可將個人資料或隱私保護相關資訊與要求,擴及歐盟以外之國家,因而於2012年提出新規則草案,而後續相關發展,更值得我們持續留意跟進。
德國民眾對奈米科技關切評估報告出爐為了瞭解德國消費者對於市面上眾多應用「奈米」科技之消費產品的想法,德國聯邦風險評估研究所(Bundesinstitut für Risikobewertung,BfR)於2007年抽樣調查一千位消費者,並於該年底公布調查結果。根據該問卷調查結果顯示,超過三分之二(66%)受訪者對於奈米科技發展持樂觀態度,並認為應該支持奈米科技的持續發展,並且認為奈米科技改善了生活品質以及其帶來的效益勝過風險。 但是,對於不同領域所應用之奈米科技,受訪者卻表現出不同的態度。因此該研究所所長Andreas Hensel認為,消費者不是依據事實為評價,而是依據「感性標準」。也就是說,他們所「感覺到」的風險在他們理解新科技時扮演重要角色。 相較於2004年所做的問卷調查,目前約有52%的受訪者聽過奈米概念,之前的調查結果只有15%。多數受訪者相信奈米可以幫助醫學領域的發展;其也相信應用奈米於顏料、漆料可提高耐刮與耐磨之能力。在紡織品領域也一樣,民眾相信防污的產品;受到民眾接受的還包括奈米科技在包裝材料以及防曬產品領域之應用。不過,對於其他化妝品卻只有53%的受訪者相信奈米的改善功能。絕大多數受訪者都拒絕將奈米科技應用於食品:69%受訪者拒絕添加「奈米」於調味料,即使奈米可以防止結塊;而就算因此可以延長食物保存期限,也有高達84%的受訪者拒絕在食物中添加奈米微粒。 多數的消費者獲取奈米科技資訊主要來自於大眾媒體,如電視、報紙、期刊與網際網路。但是他們是否相信該資訊,則取決於提供者為何,最受信賴之資訊來自於消費者組織,如消費者保護團體以及產品檢測基金會(Stiftung-Warentest)以及科學界(92%),最不受信賴的資訊則來自於經濟(32%)與政治(23%)。
德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現