愛爾蘭資料保護委員會(Data Protection Commission,DPC)於今(2021)年9月宣告WhatsApp Ireland Limited(下稱WhatsApp)違反歐盟一般資料保護規則(General Data Protection Regulation,GDPR)並處以高額裁罰。 DPC自2018年12月起主動調查WhatsApp是否違反GDPR下的透明化義務,包括WhatsApp透過其軟體蒐集用戶與非用戶的個人資料時,是否有依GDPR第12條至第14條提供包括個資處理目的、法律依據等相關資訊,以及該資訊有無符合透明化原則等,其中又以WhatsApp是否提供「如何與其他關係企業(如Facebook)分享個資」之相關資訊為調查重點。 歷經長時間的調查,DPC作為本案領導監管機關(lead supervisory authority),於2020年12月依GDPR第60條提交裁決草案予其他相關監管機關(supervisory authorities concerned)審議。惟DPC與其他相關監管機關就該裁決草案無法達成共識,DPC復於今年6月依GDPR第65條啟動爭議解決程序,而歐洲資料委員會(European Data Protection Board)在同年7月對裁決草案中的疑義做出有拘束力之結論,要求DPC提高草案中擬定的罰鍰金額。 DPC最終在今年9月2日公布正式裁決,認定WhatsApp未依第12條至第14條提供資訊予「非軟體用戶」之資料主體,而「軟體用戶」的部分也僅有41%符合規範,嚴重違反GDPR第5(1)(a)條透明化原則。據此,以母公司Facebook全集團營業額作為裁罰基準,DPC對WhatsApp處2.25億歐元之罰鍰,為GDPR生效以來第二高的裁罰,並限期3個月改善。
芬蘭提出群眾募資法案,鬆綁證券模式群眾募資並釐清債權模式群眾募資法制芬蘭財政部(Ministry of Finance)在2016年4月7日將群眾募資法(Crowdfunding Act)草案提交國會,本法案預訂在2016年7月1日生效。芬蘭金融監管局(Finnish Financial Supervisory Authority)曾於2014年7月1日針對債權模式群眾募資(loan-based crowdfunding)以及投資模式群眾募資(investment-based crowdfunding)發布指導原則 ,為其法制進行說明與解釋,然而並未進行立法為群眾募資作出法規鬆綁。 本次芬蘭所提出的法案將有助於企業運用債權(debt)以及證券(securities)模式群眾募資進行籌資活動,本法案將鬆綁證券模式群眾募資並釐清債權模式群眾募資法制基礎。芬蘭財政部長表示:「本法案目標在於創造新的融資來源,特別是在傳統融資管道經歷困難的新創成長公司。群眾募資將增加融資可能,特別是中小企業以及新創公司。透過群眾募資,將可以提升他們的成長機會,投資選項,商業化創新,我們希望進而能增加就業率。」。 目前歐洲投資模式群眾募資市場規模為1550萬歐元,債權模式群眾募資約6890萬歐元。歐洲2015年群眾募資整體市場規模為8440萬歐元,較去年成長48%。 芬蘭群眾募資法只規範證券模式群眾募資以及債權模式群眾募資,不包含P2P借貸(peer-to-peer lending)。目前在芬蘭,P2P借貸由消費者保護法(Consumer Protection Act)規範;捐贈模式群眾募資(Donation-based crowdfunding)由集資法(Money Collection Act)規範,由內政部(Ministry of the Interior)管理;回饋模式群眾募資(Reward-based crowdfunding)由消保法規範,消費者之間以及企業之間則有商品銷售法(Sale of Goods Act)。 新法規定,經營群眾募資必需要取得芬蘭金融監管局取得執照。目前投資模式的群眾募資所適用的法規為投資服務法(Investment Services Act),同樣為金融監管局主管之範疇。信用機構則無需依照新法另外取得執照即可於其原營運執照下提供群眾募資中介服務。 新法做出下述變革: 1. 過去繁重耗時的營運執照申請行政程序,將被簡化,由較便宜、簡易且快速的註冊程序所取代。 2. 群眾募資中藉機構不需要再參加投資人補償基金(Investors’ Compensation Fund)。 3. 群眾募資中介機構的最低資本額由目前的125,000歐元降低為50,000歐元。 4. 提供最低資本額替代方案,例如專業的責任保險、銀行擔保或者是其它金融監管局認為足夠的相應的擔保。 5. 本法只是用於在芬蘭境內擔任群眾募資中介機構或者取得群眾募資,如果要在其它歐盟國家營運,建議中介機構仍應取得投資服務公司營運執照,以加速進入歐盟市場。 目前債權模式群眾募資被認定為金融中介機構,但是不受任何法規範。新法對於債權模式群眾募資提出管理規範,將適用證券模式群眾募資的管理規範,包含: 1. 群眾募資中介者以及募資人都具備資訊揭露義務。 2. 管理群眾募資中介者流程,以及對於投資人的義務。 3. 群眾募資中介者的監管規範,包含處罰規定。 目前具備群眾募資法制的歐洲國家包含義大利、法國、英國、德國、西班牙、奧地利以及葡萄牙。比利時、荷蘭以及立陶宛法案則預計在近期生效。而瑞典、愛沙尼亞以及拉脫維亞則仍在探詢法制之需求。雖然歐洲早於2011年就成立歐洲群眾募資網路(European Crowdfunding Network),但迄今歐盟尚未有群眾募資指令。歐洲各國不同的群眾募資國內法制造成目前歐盟協商群眾募資法制之困難。
加州公佈影音遊戲法案臨危憲爭議加州州長阿諾‧史瓦辛格於 2005 年 10 月 7 日簽署禁止販售暴力影音遊戲 (Violate Video Game) 與未成年人之影音遊戲法案,影音遊戲業者對於此法案之通過表示強烈抗議,主張該法案違反美國憲法修正條文第一條言論自由之保護。 該法案禁止販賣或出租具強烈暴力色彩之影音遊戲與未滿 18 歲之未成年人,同時要求此類遊戲必須於包裝正面依據規定標誌標示明顯之「 18 」字樣,違者將處以 1000 美元以下之罰金。州長史瓦辛格先生指出,這些遊戲多半是為成人所設計,是否讓青少年接觸此類遊戲,應由其家長決定之,故此法案並未限制該未成年人之家長購買或租用該類遊戲提供未成年人使用。 美國「影音軟體業者協會」 (Video Software Dealer Association) 以及「娛樂軟體協會」 (Entertainment Software Association) 等業者代表計畫以訴訟方式爭議此法之合憲性並予以推翻,而美國聯邦法院曾對於華盛頓州之類似法案作出不利之判決,使得此法案之未來仍為一個未知數。值得一提的是,美國其他州亦有類似法案通過,其中包括伊利諾州以及密西根州,目前「娛樂軟體協會」針對此兩州之法案已於聯邦法院提起訴訟。
澳洲數位轉型局12月發布《政府負責任使用人工智慧政策2.0》,以強化公部門之AI風險管理2025年12月初,澳洲數位轉型局(Digital Transformation Agency,下稱DTA)發布《政府負責任使用AI政策2.0》(Policy for the responsible use of AI in Government 2.0),旨在進一步強化公部門在AI的透明度、問責性與風險管理能力,於2025年12月15日生效,取代 2024年9月實施的過渡版本。 一、適用範圍 政策適用於所有非企業型聯邦實體(Non-corporate Commonwealth entities),即不具獨立法人地位、直接隸屬於政府的機關或單位。企業型聯邦實體則被鼓勵自願遵循。政策定位為「補充與強化既有法制」,非另訂獨立規範,因此在實務中須與公務員行為準則、資安規範及資料治理制度併行適用。 二、政策重點 在政策施行的12個月內,適用機關須完成以下要求,以確保落實AI治理架構: (一)制度建置 1. AI 透明度聲明:機關須在政策生效後 6 個月內發布「AI 透明度聲明」,公開 AI 使用方法與現況。聲明中須說明機關風險管理流程、AI 事件通報機制及內外部申訴管道,確保使用過程透明、可追蹤。 2. 人員指定與培訓: 機關須指定制度問責人員(Accountable officials)以及AI使用案例承辦人(Accountable use case owners)。 所有員工皆須進行關於負責任使用AI的培訓,機關並依員工職務權責提供個別員工進階訓練。 3. 建立內部AI使用案例註冊清單(Internal AI use case register),以供後續追蹤 該清單至少包含: (1)使用案例負責人(Accountable use case owners):記錄並持續更新範疇內 AI 使用案例的指定負責人。 (2)風險等級(Risk rating):AI使用案例的風險等級資訊。 (3)異動紀錄:當使用案例的風險評級或負責人變更時,須即時更新清單。 (4)自定義欄位:各機關可根據其需求,自行增加欄位。 (二)AI 使用案例範疇判斷 機關須在評估所有新案例,依以下特徵判斷AI應用是否屬於「範疇內(In-scope)」的應用: 1.對個人、社群、組織或環境造成重大損害。 2.實質影響行政處分或行政決策。 3.在無人工審查的情況下,大眾將直接與AI互動或受其影響。 4.涉及個人、敏感資料等資訊。 (三)進階風險評估 依AI影響評估工具(Impact Assessment Tool)針對公眾近用權;不公平歧視;加重刻板印象;損害人、組織或環境;隱私顧慮;資料敏感之安全顧慮;系統建置之安全顧慮;公眾信任等8類別,加以判斷範疇內AI應用,若有任一類別被評為「高風險」,即判定為「高風險」;若所有類別中最高的分數為「中風險」,則整體判定為中風險。 判定為中、高風險之AI應用,均需進行全面審核。中風險須列出所有中風險項目及其控管措施,主要為內部控管;而高風險則要求向DTA報告,且每年至少進行一次全面審核與風險再評估。 澳洲欲透過發布AI透明度聲明、更新AI使用案例註冊清單、強制執行AI應用之風險評估及人員培訓,確保公部門對AI的負責任使用與問責。而我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,落實AI資料管理與追蹤。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)