日本內閣府組成「AI時代的智慧財產權研討小組」,由東京大學副校長渡邊敏也作為主席於今(2023)年10月4日召開首次會議,為討論生成式AI(人工智慧)發展帶來的智慧財產權問題。討論主題包括法規範現況、在人類參與有限的情況下由生成式AI所產出之發明是否可以申請專利等,目標於年底前彙整、蒐集企業經營者待解決議題。亦將從其他法律的角度進行討論,例如:AI模仿商品形態是否亦受到日本《不正競爭防止法》之拘束;AI與專利之間的關係,依據日本《專利法》,專利權目前僅授予個人參與創造過程的發明,隨著AI技術的發展,預計會出現難以做出決策的情況,將討論諸如取得專利所須的人類參與程度等問題;以及擁有大量資料的權利持有者向AI開發者提供有償資料的優缺點。與會專家表示,希冀看到從鼓勵利用AI進行新創作和發明之角度出發。日本文化廳和其他相關組織亦同步討論AI生成的作品,若與現有之受著作權保護的作品相似時是否會侵害著作權之議題。
日本內閣府早先於今年5月公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理),我國行政院於今年8月31日正式揭示國科會擬定之「行政院及所屬機關(構)使用生成式AI參考指引」草案,我國經濟部智慧局亦規劃研擬就AI生成物是否享有著作權或專利權、訓練資料合理使用範圍、企業強化營業秘密保護等3大面向建立AI指引,國內外AI相關指引議題均值得持續追蹤瞭解。另,企業無論是擔憂AI技術成果外洩、不慎侵害他人智財權或智財成果被生成式AI侵害之虞等,因應數位化趨勢與數位證據保全而應強化相關管理措施,資策會科法所發布之《營業秘密保護管理規範》、《重要數位資料治理暨管理制度規範(EDGS)》協助企業檢視自身管理措施之符合性並促進有效的落實管理。
本文同步刊登於TIPS網(https://www.tips.org.tw)
八位美國眾議員於2007年2月6日連署提出新法案,擬賦予司法部門首長更大的權限要求網路服務提供者(ISP)記錄用戶的網路活動並留存特定的用戶資訊。草案提交眾議院審議後,隱私保護機構紛紛表達反對立場。 此次由德州眾議員Lamar Smith主導的新法案「the Internet Stopping Adults Facilitating the Exploitation of Today's Youth Act of 2007(簡稱SAFETY Act)」中,ISP業者必須保留的用戶資料,最低限度需包括用戶姓名、地址、電話及IP位址;至於用戶資料的留存期間,則將交由美國司法部決定。以現況而言,多數ISP業者所保存的用戶資訊均在半年以下;然而美國司法部部長Alberto Gonzales曾於2006年9月公開倡議ISP業者資料留存期間,應以兩年為宜。 此外,草案亦要求ISP業者發現其所提供的服務存在兒童色情情事時,應主動通報主管機關,否將面臨15至30萬美元的罰金;若其有意地助長兒童色情的流傳,更可能面臨最高10年的徒刑。 批評者如「民主及科技中心」(Center for Democracy and Technology;CDT)表示,此法案不啻為對憲法修正條文第一條的威脅,毫無限制的授權更可能肇致用戶資料的留存期間成為司法首長個人得以專擅決策之事項。
美國法院新判決,讓Rambus公司無法取得Micron公司的權利金美國德拉瓦(Delaware)州法庭於1月9日判決,記憶體晶片(DRAM)設計業者Rambus公司(Rambus Inc.)因在訴訟過程中,毀壞此一專利訴訟案件的相關文件與資料,使其專利不具執行力。因此無權以系爭的12項專利要求 Micron公司(Micron Technology Inc.)支付權利金。判決公告後,Rambus公司的股價因而重挫約40%。 兩家公司的紛爭可溯至2000年,該年度Micron公司曾控告Rambus公司,宣稱Rambus公司試圖掌控當時DRAM晶片的市場。當時,Rambus公司要求Micron公司在內的晶片製造業者須支付權利金給該公司,而晶片製造業者則予以反擊,宣稱Rambus公司取得專利的過程有瑕疵。 雙方除於法院進行訴訟外,並利用美國聯邦貿易委員會(FTC)進行紛爭處理,互有勝負。例如:去年11月,加州地方法院宣判Rambus公司控告Micron公司、海力士(Hynix)、三星電子(Samsung Electronics)與南亞科技(Nanya Technology)等公司侵權一案,獲得初步勝利。然而如今法院的判決卻又重擊Rambus公司,因為該判決可能使該公司往後難以利用其所擁有的專利,迫使其他晶片製造業者支付權利金,也因此造成Rambus公司股價重挫的情形。
巴西通過290號規範性指令,促進已獲外國監管機構註冊之醫療器材於國內快速上市巴西國家衛生監督局(Agência Nacional de Vigilância Sanitária, Anvisa)為強化國際監管機構間信任,並促進具有臨床效益的健康產品快速流通,於2022年8月通過第741號合議理事會決議(Resolução da Diretoria Colegiada - RDC N° 741),宣布若已透過等效外國監管機構(Autoridade Reguladora Estrangeira Equivalente, AREE)–即具有與 Anvisa一致之監管方式的外國監管機構–認定符合公認之品質、安全性和有效性標準之醫療產品,可利用AREE的註冊或授權證明相關文件,於巴西當地申請上市註冊的過程中,獲得簡化審查的優惠措施。在此框架下,Anvisa於2024年4月4日通過第290號規範性指令 (Instrução Normativa - N° 290),內文指出醫療器材及體外診斷醫材產品可於2024年6月3日起,於註冊上市的過程中提交AREE之證明文件以進入簡審程序。 第290號規範性指令明確指出,目前獲巴西政府認可之醫療器材AREE及對應之註冊或授權證明,包含以下機構:(1)美國食品及藥物管理局(U.S. Food and Drug Administration, FDA)之上市前批准(PMA)、510(k)或De Novo;(2)加拿大衛生部(Health Canada, HC) 之醫療器材許可證;(3)澳洲醫療用品管理局(Therapeutic Goods Administration, TGA)之澳洲治療用品登記冊 ;(4)日本厚生勞動省(Ministry of Health, Labour and Welfare, MHLW)之上市前批准。另外,欲適用簡化程序的註冊產品,則需與AREE頒發授權證明之產品具有「本質上相同性」(Dispositivo Médico Essencialmente Idêntico),具體包含產品之技術規格、適應症、預期用途、製造商、製造流程,以及安全與性能上的一致性。 此政策透過值得信賴的監管單位把關,不僅可促進國際間醫療器材之貿易流通,更可能有效減少巴西當局於審查過程的行政成本,進而提升國內的產品審查效率。然值得注意的是,在各國醫療器材監管法規與行政裁量基準不完全一致的現況下,各國政府對於醫療器材之分類、臨床數據及健康風險的解釋與判斷結果也不見得相同,Avisa未來在醫療器材上市審核的過程中,將如何看待及利用來自AREE之證明文件,有待未來持續觀察其實施成效。
英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。