本文為「經濟部產業技術司科技專案成果」
2014年6月25日,美國聯邦最高法院就Riley v. California一案作出判決,否定了附帶搜索(註)亦適用於行動電話的見解,並要求警察在查看嫌犯手機的內容前必須取得搜索票。 法院見解認為,由於手機裡的資料顯然不會造成執法者人身安全的危險,而在警察取得搜索票的這段期間內,資料也不可能遺失(甚至可以透過切斷手機連線功能,防免資料因遠端移除或加密而遺失),因此手機內容應不在附帶搜索的適用範圍內。判決中另指出,智慧型手機已經成為人們日常生活中無時無刻、無所不在的一部分,其中含有大量的個人資訊,包括通聯紀錄、標記有日期及地點的照片與影片、網路搜尋及瀏覽紀錄、購物清單及GPS定位等,若允許警察在未取得搜索票的情況下查看嫌犯手機,將有可能嚴重侵犯到個人隱私。 首席大法官John Roberts表示:「如果更進一步地細究系爭隱私利益之範圍,用戶在現代手機上所看到的資料,事實上並不儲存在裝置本身。將手機看作一個容器並對其內容實施附帶搜索,這樣的預設是有點勉強的,尤其當手機被用來讀取儲存在他處的資料時,這種說法更是完全無法成立。」 在其協同意見書中,大法官Samuel Alito也認為,相對於非電子資訊,法院為電子資訊提供了更多的隱私保護。同樣是通聯記錄,如果是從嫌犯口袋裡扣押的紙本帳單取得,在法律上毋須取得令狀即得搜索,但如果是儲存在手機裡就不是這麼一回事了。 註:為保護執法者人身安全並防免被告湮滅證據,我國刑事訴訟法第130條規定,檢察官、檢察事務官、司法警察官或司法警察逮捕嫌犯或執行拘提、羈押時,雖無搜索票,得逕行搜索其身體、隨身攜帶之物件、所使用之交通工具及其立即可觸及之處所,學說上稱作「附帶搜索」,為令狀搜索原則之例外。
93年國人申請發明專利數量大幅成長28.39﹪ 創新研發成果明顯躍進93年專利申請統計資料顯示我國受理專利申請案總數、發明申請案數量、及國人發明申請案等指標,均呈現相當幅度成長,顯示我國過去幾年官方與民間投資創新研發成果有明顯成長。 93年專利、商標申請與核准統計出爐,全年專利新申請案件總數72,105件,較92年的65,742 件增加6,363件(9.68﹪),本國人申請案43,038件,外國人29,067件。其中屬技術強度較高的發明申請案件總數計41,930件,較前一年增加6,107件(17.05﹪);本國人發明申請案16,754件,較前一年大幅增加3,705件(28.39﹪),顯示我國產業研發技術成果有向上提昇的趨勢。93年專利發證數66,415件,比92年大幅增加24,333件(57.82﹪),此係因93年7月專利法修正實施,新型專利改採形式審查,縮短專利審查時程,及專利廢除異議制度改採繳費後公告同時發證的制度轉換短期影響。 93年商標申請案依類別統計為72,650件,比92年申請案件數65,907件,增加6,743件(10.23﹪),;93年商標公告註冊案計54,912件,較前一年74,572件減少19,660件(-26.36﹪);依類別計55,986件,均較前一年減少。不論是在申請或公告註冊數都是以本國人佔絕大多數。商標申請於92年底開始實施一申請案多類別制度,不同類別毋需另提出一獨立申請案,因此依類別統計數會比申請案件數多。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。