日本為因應去年6月通過「個人資料保護法」之修正(下稱「新法」),個人資料保護委員會於2021年2月19日第166次會議議題「禁止不當利用與停止利用之完備指引論點」(改正法に関連するガイドライン等の整備に向けた論点について(不適正利用の禁止・利用停止等)),公開兩份論點資料,作為將來發布指引之參考,並使企業等關係者在新法實施準備期間,得採取適當措施以達到法遵要求。
新法第16條之2「禁止不當利用」,旨在防止不當利用個人資料致本人權益受損。於「禁止不當利用之論點資料」指出具體要件有(1)「違法或不當行爲」,係指違反個人資料保護法及其他法令之行爲,或有違公序良俗,在社會觀念上非屬正當之行為;(2)「助長或誘發之危害」,在認定上將限縮在以業者提供時有認識第三方將違法利用個人資料,並可預見提供個人資料將受違法利用之情形,以免造成寒蟬效應。若第三方刻意隱瞞取得目的,即使已盡相當注意仍不能預見違法利用之情形,則非屬「危害」。
新法第30條第5項擴大「停止利用」請求權範圍,於「停止利用之論點資料」指出適用要件有(1)「個人資料處理業務已無利用個人資料之需要」,即個人資料利用目的已消失或該事業已中止時;(2)「發生第22條之2第1項本文情形」,係指發生資料外洩依規定須報告委員會之情形;(3)「可能損害本人權益時」,係指依法受保護之正當權益有受損可能為必要。另論點指出請求停止利用必須在「為防止本人權益受損必要限度內」,故業者對於超出必要限度之部分得拒絕之。而對於停止利用所費不貲或顯有重大困難之情形,得依個案具體考量採取適當替代措施。
2014年7月24日美國眾議院金融服務資本市場附屬委員會(House of Representatives Committee on Financial Services’ Capital Markets Subcommittee)針對新創企業啟動法(Jumpstart Our Business Startups Act,簡稱JOBS法)舉行聽證,由證券交易委員會(United States Securities and Exchange Commission,簡稱SEC)企業融資處基思‧希金斯(Keith Higgins)處長(Director of the Division of Corporation Finance)向委員會說明。 各界對於JOBS法相當重視,委員們於聽證會中提出相關疑慮,處長回應包括: 期望今年底提出JOBS法所漏未規定之「存款與貸款」(savings and loans)部分之補救計畫(proposal)。 關於2013年SEC舉行之小型企業資本形成之企業論壇(Business Forum on Small Business Capital Formation)」之建議,例如創業者仰賴朋友與家人資助,仍應發行群眾募資證券(crowd-funding securities)給予此類非合格投資者(non-accredited investor)等,將部分建議納入考慮。 SEC正考慮將JOBS法原設定50萬美元的籌資門檻提高,以因應門檻(過低)對於群眾募資可能之負面影響。 本法提供股票初次上市的快速入口程序(onramp process),及快速成長公司(emerging growth companies)發行報告給潛在投資人,其執行緩慢原因在於投資人之顧慮,但相信此程序將經常被運用。 希金斯處長雖就部分疑慮進行解答,然後續仍須觀察SEC將如何完成JOBS法相關規範之制定與執行狀況。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。
印度廣告標準委員會公布「虛擬數位資產和連結服務廣告指引」印度廣告標準委員會(Advertising Standards Council of India, ASCI)於2022年2月23日發布「虛擬數位資產及連結服務廣告指引」(Guidelines for Advertising of Virtual Digital Assets and Linked Services),旨在防止使用加密資產和相關服務用戶所面臨的風險。 本指引使用「虛擬數位資產」(Virtual Digital Assets, VDA)此專有名詞,而非「加密資產」,並將虛擬數位資產定義為透過加密或其他方法所產生的任何訊息、編碼或代幣,得以充當計價或記帳單位的憑證或儲存,包括加密貨幣和其他相關產品,例如非同質化代幣(NFTs)均屬之。 該指引目的在將虛擬數位資產廣告與印度廣告標準委員會所發布的準則保持一致,該準則要求廣告必須真實,不得因「模糊、誇大或遺漏」而誤導消費者,並且不得利用消費者之信任或欠缺了解。 最重要的是,廣告商必須在所有虛擬數位資產的廣告中,於明顯位置附上免責聲明,且免責聲明必須至少佔總印刷或靜態廣告空間的20%,而動態廣告至少要有5秒,並且必須出現在聲音和社群媒體廣告中。免責聲明中應載明:「加密資產和非同質化代幣並不受監管,風險高。此類交易造成的任何損失可能因為沒有監理,而難以取得賠償。」
RFID應用與相關法制問題研析-個人資料在商業應用上的界限