從國外案例談軟體漏洞資訊公布與著作權防盜拷措施

刊登期別
2005年06月
 

※ 從國外案例談軟體漏洞資訊公布與著作權防盜拷措施, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?no=55&tp=1&d=790 (最後瀏覽日:2025/04/19)
引註此篇文章
你可能還會想看
科研資源整合之跨國合作趨勢研析與比較

紐約通過法案,將禁止企業使用未能通過偏見審計的自動化招募系統

  紐約市議會於2021年11月10日通過紐約市行政法規的修正法案,未來將禁止雇主使用未通過偏見審計(bias audit)的「自動化聘僱決策工具(Automated Employment Decision Tools)」,避免因為自動化工具導致的偏見與歧視,不當反映於雇主的最終聘僱決策。   於該法所定義之「自動化聘僱決策工具」,係指透過機器學習、統計模型、數據分析或人工智慧之運算,以實質性協助或取代決策過程,影響最終聘僱決定。而聘僱決定包含篩選應徵者以及對員工作成是否晉升之結果。偏見審計由獨立審計員針對自動化聘僱決策工具進行測試,藉以評估該自動化聘僱決策工具對於雇主依法應申報資訊的影響,例如是否影響及如何影響員工性別、族裔、職位、職務等特徵分布情形。該法並規定雇主或職業介紹機構只有在滿足以下條件的前提下,始得使用自動化聘僱決策工具,包括: 一、通過審計義務:自動化聘僱決策工具須於1年之內通過偏見審計(bias audit)。在使用該工具前,應將該最新審計結果摘要及該工具發行日公告於雇主或職業介紹機構的網站上。除非另有規定,如未有公告,應徵者或員工得提出書面要求雇主於30日內提供自動化聘僱決策工具所收集的數據類型、來源及雇主或職業介紹機構之數據保留政策之相關資訊。 二、通知義務:如欲使用自動化聘僱決策工具對居住在紐約市的員工或應徵者進行評估時,雇主應於使用前的10個工作日內通知該員工或應徵者,且應通知用於評估時所使用之工作資格或特質等參數,並允許應徵者或員工申請以替代方式進行評估。   如雇主或職業介紹機構違反上開規定,第一次違反者將承擔500美元的民事懲罰(civil penalty),如連續違反者,對於之後的違反將承擔500至1500美元不等。目前該法案仍待市長簽署,該法案如經市長簽署通過,將於2023年1月1日生效。

美國推動L Prize獎勵創新節能照明產品技術研發

  美國能源部依據「2007年能源獨立與安全法案」(The Energy Independence and Security Act (EISA) of 2007)第655條規定,設立Bright Tomorrow Lighting Prize (L Prize)競賽,這是第一個由美國政府所發起的科技競賽。此一規定係依據「2005年能源政策法」(Energy Policy Act of 2005)第1008條而來,賦予能源部對於與其政策目的相關、有重大貢獻的科技研發或商業應用,得設置競賽活動並提供獎金。因此,為了促進照明產業的發展,而固態照明(solid-state lighting)科技是具有潛力能減少照明能源的使用以達解決氣候變遷的方式之一,因此能源部希望在固態照明技術的研發上扮演催化者的角色,藉由此一競賽來刺激研發超效能固態照明產品以取代傳統照明設備。   此一規定對工業的發展造成挑戰,因為將會取代兩種日常生活所使用的產品:60W白熾燈泡與PAR 38滷素燈泡。於2008年5月首先展開的是60W白熾燈泡領域,因為此種燈泡是消費者最普遍使用的,約佔美國國內白熾燈泡市場的一半。要獲得此獎項的要求,必須該替代產品要能使用低於10W的電力,節省83%的能源。該競賽已於2011年8月結束,由Philips Lighting North America所研發的高效能LED產品獲得,除頒發一千萬美元的獎金外,亦已與聯邦政府簽署採購合約。該產品預計於2012年春於零售商店上架。   L Prize的第二階段競賽於2012年3月展開,希望針對PAR 38滷素燈泡領域,鼓勵企業研發LED替代產品,來取代通常使用於零售商店或戶外安全照明的聚光燈和探照燈等傳統PAR 38滷素燈泡。此一競賽獎勵對於全美的照明產業是相當好的挑戰,不僅能研發出創新、具有高效能的產品,亦能提升美國製造業的競爭力。目前全美國約有九千萬個PAR 38滷素燈泡,若能以高效能燈泡取代,能源部預估每年可以節省約11terawatt-hours的電力,並可減少七百萬噸的碳排放。   要贏得L Prize的產品必須通過嚴格的測試,包括其性能、品質、壽命、價格及是否適合量產等。由於在PAR 38滷素燈泡領域,至少必須製造50%的LED燈泡,且所有的組裝都須在美國完成,因此同時亦提供相當多的工作機會。

南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引

南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。

TOP