臉書(Facebook)在2011年11月與美國聯邦貿易委員會(Federal Trade Commission, FTC)針對用戶資料的隱私權問題達成和解,包括第一:臉書必須遵守其自行提出的隱私權政策;第二:臉書必須要事先得到使用者的同意,才能更改其資訊分享的設定;第三:當使用者刪除其帳號的三十天內,臉書必須實際上使任何人不能再取得相關資訊;第四:必須對新產品或服務建立並維護其隱私權保障的計畫;第五:在未來二十年內,臉書必須由獨立的第三人稽查其隱私政策,以維護使用者的資訊隱私保護。
但是公益團體電子隱私資訊中心(Electronic Privacy Information Center, EPIC)最近指控臉書的Timeline功能違反和解協議的第二條。在EPIC的指控中表示:臉書必須要事先得到使用者的同意,才能更改其資訊分享的設定。而Timeline的功能在2011年12月6日上線後,完全改變了使用者揭露其資訊的方式,強化使用者張貼的重要事件,並回溯資料至該使用者第一次登入臉書時(甚至更早至第一次輸入相關資料時)。雖然臉書提供七天時間給使用者可以編輯Timeline,刪除不希望公開的照片或貼文,但幾乎沒有人知道。EPIC因而要求FTC介入調查。
日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論: 一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。 AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。 二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。
《加州隱私權法(California Privacy Rights Act, CPRA)》現在備受關注;CCPA修正案2020年11月3日,加州於其大選中以公投方式批准通過第24號提案(Proposition 24),該提案頒布《加州隱私權法》(California Privacy Rights Act,以下簡稱CPRA)。CPRA對加州消費者隱私保護法(California Consumer Privacy Act 2018,以下簡稱CCPA)所規定之隱私權進行重要修正,改變了加州的隱私權格局。 CPRA賦予加州消費者新的隱私權利,並對企業施加新的義務,例如消費者將有權限制其敏感性個人資料(例如財務資料、生物特徵資料、健康狀況、精確的地理位置、電子郵件或簡訊內容及種族等)之使用與揭露;消費者有權利要求企業更正不正確的個人資料;CPRA同時修改現有的CCPA的「拒絕販售權」,擴張為「拒絕販售或共享權」,消費者有權拒絕企業針對其於網際網路上之商業活動、應用或服務而獲得的個人資料所進行之特定廣告推播。CPRA亦要求企業對各類別之個人資料,按其蒐集、處理、利用之目的範圍及個人資料揭露目的,設定預期的保留期限標準。 CPRA另創設「加州隱私保護局」(California Privacy Protection Agency)為隱私權執行機構,該機構具有CPRA之調查、執行和法規制定權,改變了CCPA 係由加州檢察長(California Attorney General)負責調查與執行起訴的規定,並規定加州隱私保護局應於2021年7月1日之前成立。 CPRA將在2022年7月1日之前通過最終法規,且自2023年1月1日起生效,並適用於2022年1月1日起所蒐集之消費者資料,隨著CPRA的通過,預期可能促使其他州效仿加州制定更嚴格之隱私法,企業應持續關注有關CPRA之資訊,並迅速評估因應措施。
美國「人工智慧應用管制指引」美國白宮科學與技術政策辦公室(The White House’s Office of Science and Technology Policy , OSTP)於2020年1月9日發布「人工智慧應用管制指引」(Guidance for Regulation of Artificial Intelligence Application),為美國政府機關起草人工智慧規範並進行管制時提供指引,該指引內要求各機關之規範應遵循以下10項人工智慧原則: 一.公眾對AI之信任:政府對AI之管制或其他措施應促進AI之可靠性、健全性,且於應用上應具備可信性。 二.公共參與:政府應提供機會讓利害關係人參與AI管制規範立法程序。 三.科學實證與資訊品質:科學實證與資訊品質:政府機關發展AI之相關技術資訊,應透過公開且可驗證之方式提供給大眾參考,以提高大眾對AI之信任與協助政策制定。 四.風險分析與管理:應採取以風險為基礎之分析評估方法,確認哪些風險係可接受之風險,或那些風險代表無法接受之損害或所失利易大於預期利益。 五.利益與成本:政府於擬定相關規範時,應小心評估AI對於整體社會之利益,與預期外之效果。 六.彈性:法規應持續滾動檢視與調修以因應AI之創新應用。 七.公平且無歧視:政府應針對AI之應用與決策,考量公平與無歧視相關議題。 八.揭露與透明:透明度與揭露程序之建立可提升公眾對AI應用之信任。 九.安全:政府應特別注意AI系統內所儲存或傳輸資訊之安全與相關安全維護控制措施。 十.跨機關合作:政府各部會或機構間應相互合作與分享經驗,以確保AI相關政策之一致性與可預測性。
歐盟《非歐盟國家智財權保護與執法成效報告》歐盟執委會於2020年1月8日發布《非歐盟國家智財權保護與執法成效報告》(Report on the protection and enforcement of intellectual property rights in third countries)。該報告自2006年起,每兩年出版一次,主要目的為確定特定非歐盟國家中智財權之保護與執法狀況,並列出每兩年的「優先關注國」(priority countries)清單。報告中亦說明,所謂「優先關注國」是對歐盟智財利益造成最大侵害的國家,而非指全球中智財保護狀況最有問題的國家。 本次報告臚列的國家中,中國為最需關注的第一級國家;第二級為印度、印尼、俄羅斯等;第三級則是阿根廷、巴西、馬來西亞、泰國、沙烏地阿拉伯等國。報告提到中國是歐盟境內仿冒品與盜版貨物的主要來源。在歐盟海關扣押的仿冒品與盜版貨物中,有百分之八十以上來自中國和香港。第二類優先國家,其智財保護與執法存在系統性問題,且問題解決上進度緩慢。而第三類優先國家智財領域表現上也有類似問題,僅在嚴重性和數量低於第二級優先國家。其中,沙烏地阿拉伯為今年新增為優先關注國家,研究報告指出該國常被作為中轉國家,傳輸歐盟境內仿冒與盜版貨物。 報告中亦提到上述國家共同問題,包含: 強制性技術轉讓策略(特別是中國)不利於外國產業(尤其是高科技產業)投資,使外國產業失去競爭優勢; 海關執法情形不一,往往沒有依職權採取人身拘提、扣押、銷燬仿冒及盜版貨物,或是未對運輸中的盜版貨品依法採取行動; 仿冒和盜版商品通常不會被執法部門直接銷燬,甚至會回到市場; 智財侵權罰則上,許多國家的懲罰過輕,無法造成威懾作用。 因缺乏執法政治意願和資源,使國家智財權執法情況薄弱,也導致技術基礎設施、人力資源、專業能力,甚或司法、行政以及一般公眾對智財權價值認識不足。