今年年初德國聯邦政府向參議會提出「衛星資料保護法(SatDSiG)草案」,為國家以外的衛星資料利用,制定明確的規範。該草案將是歐洲第一個針對此議題所提出的草案。
該草案指出,利用「地表遙感偵查系統(Erdfernerkundungssystem)」所得資料或其所衍生的產品,不僅對國家軍事、外交安全帶來威脅,也可能造成個人隱私權的侵害。
該草案其他內容包括,所有「地表遙感偵查系統」的經營均須經過政府許可且受公權力監督。業者在接受客戶委託時,須特別注意是否有任何危害到德國國家安全的可能。其中判斷的標準如,所得資料涉及的內容、委託者身分、受委託偵測的地區、受委託的時間。如經衡量有涉及國家安全,則該資料的散佈須得政府的同意。
草案所稱衛星資料衍生產品例如照片、雷達資料以及其他經數位化商品如手機定位系統服務。違反者將面臨最高5年徒刑或50萬歐元罰金。
德國國會經濟委員會在9月10日針對該草案舉辦公聽會。會中隱私權保護團體也表達支持制定該法,各界亦贊同以專法約束具商業性的衛星資料取得利用,以保護個人隱私權。隱私權團體進一步表示,所有的衛星資料都涉及到地理資料,當衛星地理資料與其他可供識別個人身分的資料結合,則威脅到個人隱私權,而這些資料不當使用對於公眾人物格外敏感。
Google則表示,該草案適用客體應明確排除如搜索引擎等服務,且Google針對搜尋結果的圖片上網前,均會檢查其內容是否不當或違法。
2025年9月Mendones v. Cushman and Wakefield, Inc.案(下稱Mendones案),面對生成式AI與深偽(deepfakes)對數位證據真實性的威脅,美國法院特別提到針對後設資料(metadata)的審查。 基於Mendones案原告提交9項涉嫌使用生成式AI的數位證據,其中證詞影片6A與6C影片具備「人物缺乏臉部表情、嘴型與聲音不相符,整體表現像機器人一樣」且「影片內容循環撥放」等AI深偽影片之典型特徵,法院懷疑原告舉證的數位證據為AI深偽影片。 因此,法院要求原告須提出該影片的後設資料,包含文件格式、創建/修改日期、文件類型、拍攝影片的快門速度等客觀資訊。 法院表示,原告提交的後設資料不可信,因為包含許多通常不會出現在後設資料的資訊(非典型的資訊),例如:著作權聲明。且法院進一步指出,許多非典型的資訊被放在不相關的欄位,例如:Google地圖的URL網址、電話號碼、GPS座標及地址等被放在「音樂類型」(musical genre)欄位內。因此法院懷疑,前述「非典型之後設資料」是被有存取文件與編輯權限的人添加的「後設資料」。 原告則主張,其透過iOS 12.5.5版本作業系統的Apple iPhone 6 Plus手機拍攝影片6A。法院指出,直到iOS 18版本作業系統,iPhone才推出可用於生成深偽影片的新功能「Apple Intelligence」相關技術,且該版本需要使用iPhone 15 Pro或更新的手機機型,因此法院發現技術上的矛盾。 法院認為,本案生成式AI影片已超越提交虛假引文(Fictitious Citations,即過往案例曾出現過律師提出AI虛構的判例之情況)的範疇。在訴訟中使用深偽證據,嚴重影響了法院的審理與公眾對司法的信任,並增加法院評估該證據是否為深偽之成本。因此,法院採取嚴厲的永久駁回訴訟(dismissed with prejudice),以表示對企圖以深偽資料為證據的行為持「零容忍」態度。 Mendones案展現法院審理AI深偽數位證據的細節,如「審視後設資料之內容準確、完整」為法院確認數位證據真實性的重要手段。 面對AI時代下數位證據的挑戰,我國司法院、法務部、臺灣高等檢察署、內政部警政署及法務部調查局共同推動之「司法聯盟鏈共同驗證平台」,以「b-JADE證明標章」結合區塊鏈技術。「b-JADE證明標章」確保鏈下管理數位資料原檔的機制,以及鏈上的「存證資料」包含「與數位原檔資料最終版本連結的『必要後設資料』」、雜湊值及時戳,如能妥適運用司法聯盟鏈進行證據「驗真」程序,將有助於強化數位信任。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
美國有限合夥發展於我國之借鏡 世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。 包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。 在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。 綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。
中國發布《個人信息保護合規審計辦法》,明確企業個資審計責任中國國家互聯網信息辦公室於2025年2月12日公布《個人信息保護合規審計管理辦法》(下稱《辦法》)及其配套指引,自2025年5月1日正式實施。《辦法》及指引的發布,旨在落實《個人信息保護法》中的稽核規定,完善個資合規監督架構,為企業提供執行審計的制度依據。 《辦法》區分合規審計為兩大形式:企業可自行或委託專業機構定期進行審計;另當主管機關發現高風險處理活動或發生重大資料外洩事件時,有權要求企業限期完成外部審計,並提交報告。針對處理規模較大的企業,《辦法》特別規定,凡處理超過1,000萬人個資的業者,須至少每兩年完成一次審計。 針對大規模蒐用個資企業,《辦法》亦強化其配合責任,對於處理超過100萬人資料的企業,須設置個資保護負責人;對大型平台服務業者,則須成立主要由外部人員主導的獨立監督機構,以確保審計客觀性。 在審計執行層面,《辦法》對第三方審計機構的條件、獨立性與保密義務提出具體要求,並禁止將合規審計轉委託,防堵審計品質不一,或個資分享過程增加外洩風險。同時,也規範同一機構或審計負責人不得連續三次審計同一對象,以強化審計公正性。 《合規審計指引》進一步列出具體審查項目,包括處理合法性、告知義務、資料共享、敏感及未成年個資保護、境外傳輸、自動化決策與安全措施等,協助企業全面落實個資合規審查。