韓國最高法院於2010年1月10日,針對一項以線上遊戲貨幣換取現金所構成之刑事案件做出最終判決,認定此一行為並不違反韓國遊戲產業振興法施行令第18條 之3之禁止交易規定,從而不構成犯罪。
本案事實為兩名知名線上遊戲「天堂」(Lineage)之玩家陸續於2007-2008年間,以其於該遊戲中所購得,約值2億3千4百萬韓圜之虛擬貨幣「天幣」(Aden),陸續轉賣給其他約2000位遊戲玩家,以賺取價差。該案於2008年經釜山檢察廳依違反遊戲產業振興法施行令起訴,並聲請簡易判決後,兩名玩家分別被處以5百萬及3百萬韓圜之罰金。經兩名玩家提起正式裁判請求後,釜山地方法院仍維持簡易判決之結果,僅將罰金降至4百萬及2百萬韓圜。兩名玩家仍以不服判決為理由上訴至釜山高等法院。於此一上訴審中,釜山高等法院即以該交易所使用之虛擬貨幣並非來自於線上賭博遊戲或其他射悻性之途徑,故不違反韓國遊戲產業振興法施行令第18條 之3之規定,改判兩名玩家無罪。就此一上訴審判決,檢察廳另以該知名線上遊戲仍帶有諸多射悻或運氣成分,從而其取得虛擬貨幣之方式與賭博遊戲相似為理由,向最高法院提起上訴;唯最高法院認釜山高等法院之判決認事用法並無違誤,從而駁回檢察廳上訴,本案判決確定。
對於此一判決,各方反應並不一致。於最高法院判決出爐後,韓國文化觀光體育部即發表正式聲明,表示此一無罪判決係基於法院認定本案缺乏相關認定「不正常遊戲管道」是否存在之證據,而並非一律認定虛擬貨幣與現金之間的買賣或兌換交易均為合法。但一般遊戲產業界均認為,此一判決之作成確實開啟了線上遊戲中另一種獲利市場之可能性。如再配合2009年9月韓國法院所作成對於線上遊戲中的虛擬貨幣交易須課徵10%加值稅的判決進行觀察,則此種交易方式是否會對於韓國整體遊戲產業發生結構性之重大影響,應值得期待。
歐盟隱私權工作小組(working party)日前公布其對「隱私與電子通訊指令」(Directive on Privacy and Electronic Communications, 2002/58/EC)之修正意見,藉此重申支持個人資料外洩通知責任立法之立場,並建議擴大適用通知責任之業者範圍至涉及線上交易之電子商務之服務提供者。此項建議隨即遭到歐盟理事會及委員會之反對,認為通知責任應僅限於電信公司,而不應擴及其他電子商務服務提供者。 歐盟隱私權工作小組於2009年2月初提出的報告指出,個人資料外洩通知責任法制(Data Breach Notification Law)之建立對於資訊社會服務(Information Society Service)之發展是必要的,其有助於個人資料保護監督機構(Data Protection Authorities)執行其職務,以確認受規範之服務提供者是否採取適當的安全措施。再者,亦可間接提高民眾對於資訊社會相關服務使用之信心,保護其免於身份竊盜(identity theft)、經濟損失以及身心上之損害。 然而,歐盟理事會及歐洲議會則反對該項修正建議,其一方面認為不應擴張資料外洩通知責任制度適用之業者,另一方面則認為對於是否透過法制規範課予業者通知之義務,應由各國立法者決定是否立法,甚或由業者依資料外洩情形嚴重與否,來判斷是否通知其各國個人資料保護相關組織及客戶。此外,參考外國實施之成效,美國雖有多數州別採用資料外洩通知責任制度,但並非所有的隱私權團體皆肯認該項制度;英國資訊委員會對於該制度之成效則仍存質疑,因從過去為數眾多的個人資料外洩事件看來,其效果已逐漸無法彰顯。 雖然歐盟個人資料保護官(European Data Protection Supervisor)與歐盟隱私權工作小組之看法一致,但其與歐洲議會與歐盟理事會仍存有歧見,對於個人資料外洩通知責任制度之建立,似乎仍有待各方相互協商尋求共識,方能決定是否納入歐盟隱私及電子通訊指令之規範。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。
美國2015年「消費者隱私權法案」簡介