美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2022年7月21日發布更新《網路安全資源指南》(A Cybersecurity Resource Guide, NIST SP 800-66r2 ipd)。本指南源自於1996年美國《健康保險流通與責任法》(Health Insurance Portability and Accountability Act, HIPAA)旨在避免未經患者同意或不知情下揭露患者之敏感健康資料,並側重於保護由健康照護組織所建立、接收、維護或傳輸之受保護電子健康資訊(electronic protected health information, ePHI),包括就診紀錄、疫苗接種紀錄、處方箋、實驗室結果等患者資料之機密性、完整性及可用性。其適用對象包含健康照護提供者(Covered Healthcare Providers)、使用電子方式傳送任何健康資料的醫療計畫(Health Plans)、健康照護資料交換機構(Healthcare Clearinghouses)及為協助上述對象提供健康照護服務之業務夥伴(Business Associate)均應遵守。
本指南最初於2005年發布並經2008年修訂(NIST SP 800-66r1 ipd),而本次更新主要為整合其他網路安全相關指南,使本指南與《網路安全框架》(Cybersecurity Framework, NIST SP 800-53)之控制措施等規範保持一致性。具體更新重點包括:(1)簡要概述HIPAA安全規則;(2)為受監管實體在ePHI風險評估與管理上提供指導;(3)確定受監管實體可能考慮作為資訊安全計畫的一部分所實施的典型活動;(4)列出受監管實體在實施HIPAA安全規則之注意事項及其他可用資源,如操作模板、工具等。特別在本指南第三章風險評估與第四章風險管理提供組織處理之流程及控制措施,包括安全管理流程、指定安全責任、員工安全、資訊近用管理、安全意識與培訓、應變計畫、評估及業務夥伴契約等。而在管理方面包括設施權限控管、工作站使用及安全、設備媒體控制;技術方面則包含近用與審計控管、完整性、個人或實體身分驗證及傳輸安全。上述組織要求得由政策、程序規範、業務夥伴契約、團體健康計畫所組成,以助於改善醫療領域的網路安全及隱私保護風險管理。預計本指南更新將徵求公眾意見至2022年9月21日止。
美國實務界律師2023年6月9日撰文指出,人工智慧(artificial intelligence,簡稱AI)將對智慧財產法律和策略帶來改變,大部分企業熟悉的改變是目前仍有爭議的法律問題—由AI工具產生的發明創造是否為專利或著作權適格的保護標的。但除此之外,AI工具對於創建和管理智慧財產組合(IP Portfolio)的方式也已發生改變,並介紹以下五種利用AI工具協助管理智慧財產組合之方式。 1.簡化先前技術之檢索 無論是評估新產品的可專利性、評估競爭對手之智慧財產權之相關風險、抑或是回應侵權索賠,企業均須了解特定領域之先前技術,因應此需求,全球已有大量公司提供先前技術檢索服務,惟AI工具的出現使得企業可自行進行先前技術檢索。例如知名的文件審查平台Relativity創造了Relativity Patents,使用者輸入專利號碼等特定關鍵字即可進行先前技術檢索;美國專利商標局亦為了審查官開發一種AI工具,提升其確認先前技術之準確性及效率。 2.協助專利申請文件撰寫 對於專利申請人而言,可使用AI工具協助草擬專利申請範圍,有些企業甚至會運用AI工具自動化撰寫專利申請文件,惟使用AI工具撰寫專利申請文件時,應留意提供AI工具的資料是否會保密,抑或有向第三人提供之風險。此外,AI工具撰寫之內容建議仍須雙重確認內容正確性及適當性,如引用來源及內容是否正確。 3.改善商標維權能力 企業可使用AI工具協助監控潛在的侵權及仿冒產品,有鑒於現今網站及社群媒體仍有大量未經商標授權的賣家存在,AI工具可作為審查貼文及識別商標侵權案件之工具,相較於傳統的人工審查可更有效率。 4.協助商標檢索作業 於美國、澳洲、歐盟、中國,甚至世界智慧財產組織導入AI工具協助審查官進行商標審查,包括以關鍵字及影像標記之搜尋功能,此一工具不僅可簡化商標申請和註冊審查程序與時間,亦有部分國家提供使用者自行檢索之功能,使企業可進行更快速、有效率之商標檢索,使其於品牌保護策略上節省不必要之時間及金錢。 5.支持策略性專利組合管理 AI工具亦可協助專利組合管理,包括最廣的專利範圍、評估是否需繼續維護專利、或是評估擬收購專利之價值,以AI工具協助評估以上事項,雖無法完全取代人工進行策略評估,惟可顯著減少勞動力支出。 AI工具改變了智慧財產組合創建及管理之方式,雖然AI工具不能完全承擔管理智慧財產權組合之職責,但AI工具在專利/商標檢索、專利申請文件撰寫、專利權評估、商標維權等方面已可大量減少人力及管理成本,有助於企業智慧財產組合管理,惟企業及使用者須留意使用AI工具的資料管理問題,以避免機密資訊遭到外洩。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
日本政府擬修法全面禁止濫發商業電子郵件為解決日益嚴重的騷擾郵件問題,日本總務省於今(2008)年2月29日向國會提出「特定電子郵件送信適當化法修正案(特定電子メール送信適正化法改正案)」,將全面禁止未經收件人事前同意而擅自寄發宣傳廣告郵件,並將海外寄送之騷擾郵件列入適用範圍。 依據現行法之規定,未取得收件人同意寄送廣告或宣傳之郵件時,必須在主旨上標明「未經同意廣告」,並負有標示寄件人名稱、電話號碼之義務。如收件人發出拒絕收件之通知時,即禁止再傳送相關郵件;違反者將處以一年以下拘役或100萬日圓以下罰金。然而,一旦收件人回覆拒絕收件,將使業者察知該郵件帳號為有效帳號;故收件人對騷擾郵件大多不予理會,但如收件人未回覆拒絕收件之訊息時,該騷擾郵件仍得合法寄送。此外,依據調查,目前騷擾郵件中,有九成的電腦郵件及半數的行動電話簡訊,均是從海外所發出,而迴避了現行法之規範。 因此,本次修正草案明定全面禁止未經同意擅自傳送商業電子郵件至他人電腦或行動電話;即使取得收信同意,如中途拒絕時,其後即禁止再傳送郵件。此外,草案並課以郵件中應明示寄件者姓名、名稱及電子郵件地址,並要求須保存如何取得收件者同意之相關記錄。現行法不適用之海外寄送之騷擾電子郵件,也將與日本國內電子郵件受到相同規範。如偽裝電子郵件地址而傳送郵件時,或經總務省要求改善而未加以改善時,將處以最高3000萬日圓罰金。本修正法案預定於2008年中施行。
歐盟商標協會(ECTA)針對3D列印設計保護修法方向,向歐盟提交立場意見書2021年4月26日,歐盟商標協會(European Communities Trade Mark Association,以下簡稱ECTA)針對3D列印設計保護修法方向,向歐盟提交一份立場意見書(position paper)。歐盟自1998年發布《設計指令》(Directive 98/71/EC on the legal protection of designs)及2002年發布《設計規則》(Council Regulation(EC) No 6/2002 on Community designs)以來,已多年未進行修正;為了能對設計提供更有效的法律保護,歐盟從2018年起開始進行修法的公眾諮詢,並於2020年11月提出修法評估報告。 ECTA一直以來都很關注3D列印技術發展涉及的智慧財產議題,在意見書中列出了修法時應納入評估的重點。例如ECTA指出,雖然3D列印所使用的CAD模型檔案僅是列印過程中的媒介,檔案本身不能受到設計法律的保護,但檔案中包含了設計藍圖及其設計特徵,為了讓以數位形式呈現的設計能受到保護,建議應考慮修改《設計規則》第3條(b)及《設計指令》第1條(b)中對於產品(product)的定義,將CAD模型檔案及其他任何含有以數位形式呈現設計的物件(items)也納入產品的定義之中。 其次,ECTA認為應針對任何明知有侵權事實,但仍提供幫助的行為人課予輔助侵權責任(contributory infringement),以提供設計權人更有效的武器來捍衛自身權利。如行為人未經設計權人同意,自行利用3D儀器掃描物體,根據所得數據製作成CAD模型檔案,並將該CAD模型檔案提供給直接侵權人時,應成立輔助侵權。 最後,ECTA認為目前沒有針對3D列印技術制定專法的必要,僅需要在現行智財法律體系中進行修法調整即可,以避免法律體系過於複雜。
美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。