今年全球受到新型冠狀病毒(下稱COVID-19)影響,許多產業遭受嚴重衝擊。美國政府於2020年3月27日頒佈「新冠病毒援助紓困經濟安全法(簡稱CARES)」,對此專利及商標局(USPTO)也針對受COVID-19影響之專利或商標申請案,給予延長申請期限、付款等寬限措施。
由於寬限措施將於今年5月31日到期,USPTO認為COVID-19爆發的影響可視為37 CFR 1.183所指的特殊情況。因此,USPTO將允許專利權人通過EFS-Web或專利中心,提交符合某些條件之專利及商標救濟申請。
商標救濟措施部分,因COVID-19影響商標審判與上訴委員會之訴訟,可提出延長或新時間之申請。其他未能即時對主管機關的訴訟提出答覆,致使放棄商標申請案,得提出恢復請求;未能於法定使用期限36個月內或維護申請截止日前申請,致使放棄商標申請或商標註冊被取消或期滿,得提出請願書。上述請願書中若附有COVID-19聲明,USPTO除免除相關費用,並可延續救濟措施至6月30日。
專利救濟措施部分,針對小型和微型企業(small and micro entities)之專利申請提交期限,由原先6月1日延長至7月1日;大型企業(large entities)於5月31日後,依個案申請提供延期,包含請願書及所需費用;對於所有企業,USPTO將免除6月30日及先前因COVID-19影響所提出審查、請願書等費用收取。
日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論: 一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。 AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。 二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。
歐盟發布新人工智慧規範,以風險程度判斷防止科技濫用歐盟執委會於2021年4月21日提出「人工智慧規則」(AI regulation)草案,成為第一個結合人工智慧法律架構及「歐盟人工智慧協調計畫」(Coordinated Plan on AI)的法律規範。規範主要係延續其2020年提出的「人工智慧白皮書」(White Paper on Artificial Intelligence)及「歐盟資料策略」(European Data Strategy),達到為避免人工智慧科技對人民基本權產生侵害,而提出此保護規範。 「人工智慧規則」也依原白皮書中所設的風險程度判斷法(risk-based approach)為標準,將科技運用依風險程度區分為:不可被接受風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)及最小風險(Minimal risk)。 「不可被接受的風險」中全面禁止科技運用在任何違反歐盟價值及基本人權,或對歐盟人民有造成明顯隱私風險侵害上。如政府對人民進行「社會評分」制度或鼓勵兒童為危險行為的語音系統玩具等都屬於其範疇。 在「高風險」運用上,除了作為安全設備的系統及附件中所提出型態外,另將所有的「遠端生物辨識系統」(remote biometric identification systems)列入其中。規定原則上禁止執法機構於公眾場合使用相關的生物辨識系統,例外僅在有目的必要性時,才得使用,像尋找失蹤兒童、防止恐怖攻擊等。 而在為資料蒐集行為時,除對蒐集、分析行為有告知義務外,也應告知系統資料的準確性、安全性等,要求高度透明化(Transparency obligations)。不只是前述的不可被接受風險及高風險適用外,有限風險運用中的人工智慧聊天系統也需要在實際和系統互動前有充足的告知行為,以確保資料主體對資料蒐集及利用之情事有充足的認知。 在此新人工智慧規範中仍有許多部份需要加強與討論,但仍期望在2022年能發展到生效階段,以對人工智慧科技的應用多一層保障。
歐盟網路和資訊系統安全局(ENISA)歐盟網路與資訊安全局(ENISA)成立於2004年,目的在於確保歐盟內部網路與資訊安全保持在最高水準,同時也為執行2016年8月生效之歐盟網路和資訊系統安全指令(NIS- Directive),提高歐洲的網路安全準備,以防止並抵禦網路安全事件措施。計有84名工作人員,共同運作位於希臘的兩個辦公室:Heraklion (2005年成立之總部)辦公室;與雅典辦公室(2013年成立),以提高該機構的運作效率。 ENISA在NIS指令的執行中扮演重要的角色,任務包括支援歐盟機構、會員國國與產業界,快速對網路威脅與資訊安全問題做出反應。它也被要求在執行任務中協助各國間成立的合作小組。此外,更透過指令要求ENISA協助成員國與執委會,提供他的專業意見和建議。 ENISA戰略有五個面向: •提供關鍵網路設施和資訊安全問題之資訊和專業知識。 •制定和執行歐盟網路政策。 •建立歐盟間跨國支援能力。 •培育網路與資訊安全社群的網路演習、協調與支援。 •促進各國間的合作關係。 由於ENISA在建立之後網路發展情勢有顯著的演變,其任務和目標應該因應新發展做出調整,故歐盟執委會也在2017年1月開始重新審視其設立之法律依據以應對新情勢發展。
新加坡擬禁止未獲所有人同意下測試和研究基因新加坡生物道德諮詢委員會五日發表基因檢驗與研究道德準則草案,草案建議政府禁止基因研究者在未獲得同意之下取得基因進行測試與研究,同時也禁止採用基因檢驗來選擇胎兒的性別。新加坡生物道德諮詢委員公布基因檢驗與研究道德準則草案,共提出二十四項建議,希望能在研究人員從事基因研究時,保障人權。 草案建議政府,任何基因測試除非獲得基因所有人同意,否則不得進行。,產前基因篩檢只能限於確保孩子的健康,不要把先天性疾病遺傳給下一代,但不能用在選擇生男或生女。草案規範,研究員或醫生不能把基因研究結果透露給第三者,包括雇主和保險公司知道,以保障個人隱私。 委員會已經把草案公布在網站上供民眾查閱,並分送給一百一十四個機構,徵詢公眾和機構的看法;委員會將在年底向星國生命科學部長級會議提出報告。