美國司法部(United States Department of Justice)與11個州檢察總長2020年10月20日於哥倫比亞特區地方法院聯合向Google提起反托拉斯民事訴訟,依據《休曼法》(Sherman Act)第2條,以「非法利用優勢地位進行排他行為,強化自身市場力量」為由起訴 Google。美國司法部認為,Google利用自身在電子數位設備提供搜尋服務和搜尋廣告市場(search advertising markets)的壟斷地位,損害競爭對手和消費者利益,並利用特殊協議和商業慣例,佔據美國九成以上的搜尋市場,在網頁瀏覽器和手機搜索領域建立難以被超越的商業優勢。Google的反競爭策略(anticompetitive tactics)讓它能維持甚或擴大壟斷地位,削弱競爭並扼殺創新。
美國司法部與阿肯色州、佛羅里達州、喬治亞州等11個州聯合提出訴訟,指稱Google達成一系列的排他性協議(exclusionary agreements),要求將Google設置為數十億用戶之手持行動裝置或電腦的預設搜尋引擎,並且在許多情況下禁止預先安裝(preinstallation)競爭對手軟體。起訴書指稱Google透過以下方式違法維護搜尋和搜尋廣告的壟斷地位:(1)簽訂排他性協議,禁止預先安裝任何競爭對手的搜尋服務;(2)無視消費者意願,包裹式(tying)安排強迫Google搜尋軟體APP需預先安裝在行動設備的主要位置,且不可刪除;(3)與Apple達成長期協議,將Google作為Safari瀏覽器或其他搜尋工具的預設搜尋引擎(但實際上是獨家搜尋引擎);(4)利用自身獨占優勢和利潤,給予設備商、網頁瀏覽器業者和其他搜尋工具業者更多的優惠待遇,創造無間斷的強化獨占循環。
司法部認為,Google的反競爭措施阻止其它競爭對手達到經營規模,進而消除美國大多數搜尋查詢的競爭。也因為限制競爭,Google得以降低搜尋品質(例如引起隱私、資料保護、和消費者利用爭議等),從而損害消費者並阻礙創新;此外Google可以向廣告客戶收取高於市場價格之費用,並降低客戶服務品質。
而面對美國司法部控訴,Google表示這些指控具有「嚴重瑕疵」(deeply flawed),消費者選擇Google並非被強迫,而是因為Google是最優秀的搜尋工具。蘋果的Safari瀏覽器預設使用Google搜尋,是因為蘋果公司認可Google搜尋的品質,且競爭對手(Bing和Yahoo!)亦以付費方式出現在Safari介面可供消費者選擇。而微軟在Windows設備上預載之Edge瀏覽器,是以Bing為預設搜尋工具。此外,Google和Android營運商和設備商簽訂促銷協議以推廣Google,該協議可以直接降低手機價格;但即使簽署協議,Android仍會預載其他競爭者的APP和APP Store。是故,Google認為司法部若勝訴,將讓消費者只能用品質較差的搜尋工具以及支付更高的手機價格。
本文為「經濟部產業技術司科技專案成果」
德國聯邦藥品暨醫療器材管理署(Bundesinstitut für Arzneimittel und Medizinprodukte, BfArM)於2022年3月18日發布3.1版《數位健康應用程式指引》(Digitale Gesundheitsanwendungen(DiGA) Leitfaden),主要針對3.0版未詳盡之「系統數據分析」(Systematische Datenauswertung)部分作補充說明(參考資料四,頁152以下)。 德國於2019年12月即透過《數位化創新醫療服務法》(Digitale-Versorgung-Gesetz, DVG)修訂《社會法典》第五編(Sozialgesetzbuch Fünftes Buch, SGB V)關於法定健康保險之規定,賦予數位療法(Digital Therapeutics, DTx)納保給付的法律基礎,BfArM並透過《數位健康應用程式管理辦法》(Digitale Gesundheitsanwendungen-Verordnung – DiGAV)建構處方數位療法(Prescription Digital Therapeutics, PDT)的管理架構並發布DiGA指引,使數位療法得以快速被納入法定健康保險給付範圍。 開發商之數位健康應用程式取得歐盟醫療器材規則(Medical device regulation, MDR)CE Mark I & IIa級認證之後,得向BfArM提交申請,若該應用程式「符合法規要求」(Anforderungen),並具有「積極醫療效果」(Positive Versorgunseffekte),則該應用程式最快可以在三個月取得永久許可,通過許可將被列入DiGA目錄(DiGA-Verzeichnis)當中;而若僅「符合法規要求」則會被暫時收錄,需在十二個月內補上「積極醫療效果」的證據或報告,以取得永久許可,否則會從DiGA目錄中刪除。DiGA目錄中的應用程式(包含臨時許可)會納入單一支付標準(Einheitlicher Bewertungsmaßstab, EBM),法定健康保險將依該標準表列之金額給付給製造商。 目前DiGA目錄上共有36款應用程式,當中13款取得永久許可、19款取得臨時許可、另有4款被刪除;三分之一的應用程式係用於治療焦慮或憂鬱等精神疾病,其他尚包括治療耳鳴或肥胖症等疾病。病患近用DiGA目錄中之應用程式的途徑有二:透過醫師開立處方,或是依照醫師診斷之病症自行在DiGA目錄中查找對應的應用程式後提交處方申請。法定健康保險將會依照該應用程式被使用之次數,對照EBM所列之價額後,給付費用予開發商。 本文同步刊載於stli生醫未來式網站(https://www.biotechlaw.org.tw)
新加坡正式推動金融服務與市場法案,加強對新型態金融服務產業之監管力度新加坡為全球性商務金融重鎮,影響全球金融市場甚鉅,其法制變革具有指標性意義,近年來新加坡政府針對電子支付、數位代幣領域加強監管,於2017年新加坡金管局(Monetary Authority of Singapore, MAS)發布「數位代幣發行指引」;2019年通過「支付服務法」(Payment Service Act),規定從事付款業務之單位,皆須先取得許可執照。新加坡國會更於2022年4月5日三讀通過「金融服務與市場法」 (Financial Services and Markets Act),旨在促使金管局得更有效率因應、監管當今變化快速、逐漸數位化之金融市場。 該法規主要著眼於金管局對於金融業中數位代幣及加密貨幣業者之控管,並使合法之加密貨幣業者更具競爭優勢。首先明定受規範之相關金融機構或特定個人,若其具違法情事,金管局得對其發布禁制令(Prohibition Order);對於得受禁制令之主體及其涵蓋範圍,相較於過去其他法案更為擴張。 在主體方面納入「數位代幣服務供應商」(Digital Token Service Providers),以防止洗錢、進行資助恐怖主義之活動或其他金融犯罪行為,禁制令可視違法者之情節嚴重程度,而區分禁制期間為特定時間或至永久。此外,金管局亦得於特定情形下,評估要求相關金融機構進行強制股份轉讓或重組。 綜上,可以知悉新加坡當局有意對新興型態之金融模式進行有效監管,雖可能被認定與過去寬鬆、開放市場之控管機制背道而馳,惟面臨如此多元且發展快速之金融市場,著實有不斷將法規進行修正,以靈活配合當下金融趨勢及發展之必要性。
日本2017年5月30日修正施行之個人資料保護法,對於家長會蒐集、處理、利用個人資料之影響依日本2017年5月30日修正施行之個人資料保護法的最新規定,家長會、同學會、管委會等,就個人資料的蒐集、處理、利用,應與以蒐集、處理、利用個人資料為業之公司行號,在法律上承擔相當之責任、義務。 因此自2017年5月30日起,家長會蒐集、處理、利用個人資料,需要注意以下四點: 一、經當事人請求,應刪除其個人資料。 修正後的個人資料保護法施行後,明知未經或不確定是否經學生監護人同意,而取得其個人資料,都是違法的行為。但目前已經取得的個人資料,即使明知未經或不確定是否經學生監護人同意,也不需要立即刪除。惟若當事人請求刪除,則必須立即刪除。 二、學校應善盡告知之義務,取得學生監護人之同意後,方得將其個人資料轉交家長會蒐集、利用、處理,。 修正後的個人資料保護法允許由學校取得學生監護人之同意後,將其個人資料轉交家長會蒐集、利用、處理。但如果校方未充分盡到告知義務,則有違法之虞。實務上在九州的熊本曾經發生過這樣的案例,由於家長會未依法蒐集、處理、利用其個人資料,監護人提起告訴,最後雙方在二審達成和解。 三、經過監護人同意,方得將其個人資料造冊並刊登照片 由於須明確取得學生監護人之同意,方得將其個人資料造冊並刊登照片。因此為避免學校未善盡告知義務,建議家長會直接請監護人填妥加入家長會之同意書,並於同意書上載明授權蒐集、處理、利用其個人資料之範圍。 四、遵從個人情報保護委員會的指導 若家長會有非法蒐集、利用、處理個人資料之虞,個人情報保護委員會可以檢查並限期改正。屆期如未改正,可裁處罰金或懲役。
南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。