2014年2月12日,美國發表「網路安全框架(Cybersecurity Framework)」,該框架係由美國政府、企業及民間機構花費一年的時間共同發展而成,其蒐集了全球現有的標準、指引與最佳實務作法,最後由國家標準技術局(National Institute of Standard and Technology, NIST)彙整後所提出。
本框架主要可分成三大部份:
1.框架核心(Framework Core)
框架核心包括辨識(Identify)、保護( Protect)、偵測( Detect)、應變( Respond)、與復原( Recover)等五項功能。這五項功能組成網路安全管理的生命週期,藉由這五項功能的要求項目與參考資訊的搭配運用,可使組織順利進行網路安全管理。
2. 框架實作等級(Framework Implementation Tiers)
共分成局部(Partial)、風險知悉(Risk Informed)、可重複實施(Repeatable)、合適(Adaptive)四個等級。組織可以透過對風險管理流程、整合風險管理計畫以及外部參與等三個面向的觀察,瞭解組織目前的安全防護等級。
3. 框架側寫(Framework Profile)
框架側寫係組織依照本框架實際操作後所產出的結果,可以協助組織依據其企業需求、風險容忍度,決定資源配置的優先順序,進一步調整其網路安全活動。
此一安全框架旨在提供整體規劃藍圖予尚未建立網路安全架構的組織參考,而針對已有建立網路安全架構者,該框架並未意圖取代組織原先的風險管理程序和網路安全計畫,而係希望協助公、私部門改善資通訊科技和工業控制系統風險管理的能力。
英國上訴法院智慧財產法專業法官Robin Jacob於2006年1月13日對是否應該核發軟體專利感到懷疑,並對美國專利法所奉行的原則-「任何在陽光下由人類所創造之物,皆可以被賦予專利」-表示不能茍同。該法官認為,從美國軟體專利實務在搜尋既存技術(Prior Art)時之遭遇來看,將專利核發予事實上僅具一般性效能之軟體,為軟體專利不可避免的現象,如此一來,在搜尋既存技術的過程中將產生極大問題。 軟體專利存在的必要性一直受到以「自由資訊基礎建設基金會」(the Foundation for a Free Information Infrastructure,簡稱FFII)為首之社會運動團體之懷疑,但截至目前為止仍極少有針對此一爭議的研究。歐洲委員會為此補助一個「以法律、技術與經濟層面切入探討軟體專利對創新之影響」的研究計畫,惟該計畫需待2007 年方能有所成果。無獨有偶,歐洲議會於2005年7月駁回「軟體專利指令」(全名:the directive on the patentability of computer-implemented inventions,俗稱software patent directive),理由是,該指令之通過將造成歐洲軟體專利與美國一樣過度氾濫的窘境。
商標權人的好消息—歐盟法院判決巴黎萊雅(L’Oreal)勝訴歐盟法院(European Court of Justice; 簡稱ECJ)於2009年6月18日判決,確認法國化妝品公司- 巴黎萊雅(L’Oreal SA)之競爭廠商-Bellure NV(簡稱Bellure公司) 有侵害巴黎萊雅之商標權,此一判決對於刻意仿冒之廠商予以重擊,也更擴大著名商標權人的商標保護範圍。 Bellure公司所販售及製造的香水,係仿似巴黎萊雅所製造香水的味道、瓶身及包裝,且更以”smell-a-like”的商品價格比較表做為廣告宣傳,藉由「搭便車」的方式推銷Bellure之產品。 歐盟法院認為,縱使Bellure的廣告宣傳及產品本身,並未直接和巴黎萊雅的產品產生商標混淆誤認的可能,且並未對巴黎萊雅造成直接的損害,但Bellure如此「搭便車」行銷自己產品的方式,確實是以不正當的廣告方式獲取不公平的利益,並銷售自已的產品。 本案將使商標權人對於日漸複雜的侵害類型獲得保障,如:仿冒品的販售及網路銷售等;此外,對於產品在做宣傳時也要小心使用比較性的文字(如:僅做產品性質差異的比對而非產品價格的比對),以免侵害他人商標權。
WTO歐盟生技產品案解析(上) 南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。