本文為「經濟部產業技術司科技專案成果」
美國聯邦第六巡迴上訴法院於2016年4月13日就U.S. v. Timothy Ivory Carpenter & Timothy Michael Sanders案作出判決,裁定執法機關在未取得搜索令的情況下要求出示或取得手機位置記錄,並不違反憲法增修條文第4條。美國憲法增修條文第4條規定:「人人具有保障人身、住所、文件及財物的安全,不受無理之搜索和拘捕的權利;此項權利,不得侵犯;除非有可成立的理由,加上宣誓或誓願保證,並具體指明必須搜索的地點,必須拘捕的人,或必須扣押的物品,否則一概不得頒發搜索令。」 本案事實係聯邦調查局取得兩名涉及多起搶劫案之嫌疑人的手機位置,而根據手機位置之相關資料顯示,於相關搶案發生之時間前後,該二名嫌疑人均位於事發地半英哩至兩英哩的範圍內,故該二名嫌疑人隨後被控多項罪名。在肯認與個人通訊相關之隱私法益的重要性的同時,聯邦第六巡迴上訴法院認為,「縱使個人通訊之內容落於私領域,但是為了將該些通訊內容自A地至B地所必須之資訊,則非屬私領域之範疇。」聯邦第六巡迴上訴法院拒絕將憲法增修條文第4條的保護延伸至像是個人通訊或IP位址等之後設資料(metadata),其原因在於,蒐集此等資訊或記錄並不會揭露通訊的內容,因此本案之嫌疑人就聯邦調查局所取得之資訊並無隱私權之期待。法院認定,此等行為不同於自智慧型手機取得資訊,因為後者「通常而言儲存了大量有關於特定使用人之資訊。」 2015年11月9日,美國聯邦最高法院拒絕審理Davis v. United States案,該案係爭執搜索令於執法部門要求近用手機位置資料時之必要性。加州州長Jerry Brown於2015年10月亦簽署加州電子通訊法(California Electronic Communications Act, CECA),該法禁止任何州政府的執法機關或其他調查單位,在未出示搜索令的情況下,要求個人或公司提供具敏感性之後設資料。
關於軟體產品的智慧財產權保護建議近期軟體產品(特別是演算法)的智慧財產權保護受到各界廣泛注意,2022年12月美國實務界律師特別撰文對此提出相關智財權保護建議。軟體產品通常涉及演算法,指由人工智慧(AI)和分析組成,用於解決特定問題的一組規則。專利通常被企業預設為保護技術產品的最佳形式。 然而在2014年,美國最高法院在Alice Corp. v. CLS Bank International一案中可以發現將軟體申請專利保護可能存在風險,如:(一)軟體可能被認為是抽象概念(abstract ideas),非專利適格標的,而無法受專利法保護;(二)通常不易主張專利權,或可能在訴訟過程中因舉證責任造成機密資訊揭露等風險。因此該文作者認為難以受專利法保護之演算法、用於基於機器學習或訓練模型的資訊和資料集等軟體資料,亦可考慮透過營業秘密來保護,並提出以下營業秘密管理的建議: 1.員工教育訓練:建議企業可在僱傭的各階段(僱傭時、每年、終止時)採行相關措施、訓練,以減少營業秘密的竊用,及防止未來員工抗辯不知道該資訊是營業秘密。 2.機密標示:建議企業透過此階段審視組織對於機密文件之界定,再透過機密標示配合存取權限設定,協助企業控管與防止機密外流。 3.執行:瞭解需要受管理的營業秘密是什麼以及其為何重要。 4.監控和衡量員工參與度:建議企業採取相關監測機制檢視員工活動,及早發現離職動向與管控營業秘密資訊。 5.避免資訊揭露:建議企業應確保在向消費者或客戶行銷的過程中不洩露營業秘密,或至少採取相關保護措施,如簽訂保密契約。 6.確保資料安全:建議企業可建置網路安全策略、設置密碼、存取限制、外部設備使用下載或儲存限制等管控措施。 綜上所述,對於從事軟體開發的企業,除以專利保護產出成果外,還可從技術本質、後續是否容易主張、是否適合公開等面向,評估搭配營業秘密保護成果。並在選擇以營業秘密保護成果時,採行相關的管理措施避免營業秘密外洩而造成企業損失,包括:劃定需管理的營業秘密、制定員工教育訓練與相關管制措施,如機密標示、權限控管,並可搭配預警機制以便能夠即早發現異常。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
Google新版桌面搜尋工具引發隱私權顧慮Google在2006年2月11日推出最新版的桌面搜尋工具Google Desktop 3,它的最新功能可以讓用戶同時搜尋多台電腦的資料。當啟用這項功能後,它會將電腦裡的文件和文字檔案(如Word、Excel)內容予以複製上傳到Google的伺服器上。當用戶在一台電腦搜尋資料時,也會在其他台安裝此工具的電腦自動開始搜尋。Google 表示,目前已經有很多人同時使用數台電腦,這個新功能可以讓使用者的生活更為便利。 但是倡導網路隱私權的團體Electronic Frontier基金會卻表示憂慮。由於新功能可能會讓駭客更容易盜取用戶個人資料,用戶的個人隱私將面臨更大的威脅。該基金會律師Fred von Lohmann認為,使用者應重視個人資料被放在Google伺服器上可能產生的問題,這比便利性更為重要。因為使用時若未花時間處理功能選項和設定問題,它將可能導致個人資料諸如納稅、醫藥和財物紀錄,以及其他文字檔案等資料外洩。
英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。