隨著遊戲產業不斷提升遊戲畫面的精緻程度,遊戲角色也更加貼近於真實。近期,一款由Take-Two(遊戲開發商)推出名為「NBA 2K」的遊戲,遭到Solid Oak(集合刺青家授權,保護刺青著作權)控告遊戲角色(NBA球星)身上的刺青出現在遊戲中,是侵害刺青圖案著作權的行為。
本案之爭點為遊戲中出現的刺青是否納入著作權保護範圍內及遊戲開發商對於刺青的再次使用及展示有無違著作權法。Solid Oak顯然符合關於著作權法對於原創性(original works)的要求,惟由於刺青師與運動員並無任何著作權協議,因此推斷刺青師仍保有著作權。Take-Two主張在遊戲的使用上屬於公平且微量的。他們在遊戲中所呈現之畫面,其唯一目的是保持運動員真實性形象,若不去暫停或者放大畫面,幾乎看不清楚那些圖案(刺青)。由於本案仍在訴訟中,未來是否能肯認此為合理使用,並未明確。現階段如要避免此類爭訟,或許遊戲開發商得考慮直接向刺青師(藝術家)取得授權,或由運動員與刺青師簽約並取得授權,進而使遊戲開發商出版遊戲時,得透過與運動員或聯盟等簽訂使用球員形象之合約,間接使用該等圖案。
隨著科技的發展,從虛擬實境內容涉及實體藝術品之著作權,到真實人物形象於遊戲中呈現的著作權歸屬,智財權議題越趨多元。未來在快速變遷的時代,在智財權保護及科技發展之衡平上,更應保留彈性不設限範圍。
日本於2023年12月1日舉辦G7數位技術委員會(G7デジタル・技術大臣会合),由日本數位廳、總務省、經濟產業省共同會晤G7會員國代表,基於人工智慧(Artificial Intelligence,下稱AI)可能帶給全球創造性、革命性的轉變,同時也可能伴隨侵害著作權與擴散假訊息的風險,尤其是生成式AI可能對經濟、社會影響甚鉅,因此針對如何妥善使用AI技術,G7全體會員國共同訂定《廣島AI進程》(広島AIプロセス)文件,其聲明內容簡述如下: 1.訂定涵蓋《廣島AI進程》之政策框架(Framework) 2.訂定涵蓋AI設計、系統開發、規劃、提供與使用等所有與AI有關人員,(All AI actors, when and as applicable, and appropriate, to cover the design, development, deployment, provision and use of advanced AI systems)適用之《廣島AI進程》國際標準(Principle) 3.針對開發高階AI系統之組織,訂定可適用之國際行為準則(Code of Conduct) 為此,日本內閣府於2024年2月14日公布,於經濟產業省政策執行機關—獨立行政法人資訊處理推動機構(独立行政法人情報処理推進機構,下稱IPA)轄下設立日本AI安全研究所(Japan AI Safety Institute,下稱AISI),作為今後研擬AI安全性評鑑標準(據以特定或減少AI整體風險)與推動方式之專責機構,以實現安心、安全以及可信賴之AI為目標。AISI所職掌的業務範圍如下: 1.進行AI安全性評鑑之相關調查 2.研擬AI相關標準 3.研擬安全性評鑑標準與實施方式 4.研擬與各國AI專責機關進行國際合作,例如:美國AI安全研究所(U.S. Artificial Intelligence Safety Institute, USAISI) 另一方面,IPA將以內部人才招聘作為AISI成員之任用方式,預計組成約數十人規模的團隊。日本以與G7會員國共識為基礎,採專責機關—AISI進行研究與規劃,並推動日後擬定AI相關使用規範與安全性評鑑標準,據以實現AI應用安全之目標。我國對於AI技術之應用領域,未來應如何訂定使用安全規範,將涉及專業性與技術性事項之整體性規劃,日本因應AI課題而採行的做法值得我國未來持續關注。
全美各州醫療委員會聯合會發布人工智慧(AI)治理指引,並要求醫師為AI之利用結果負最終責任全美各州醫療委員會聯合會(The Federation of State Medical Boards, FSMB)於2024年4月發布「引導人工智慧以負責任與符合倫理方式融入臨床實務」(Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice)指引,明確概述醫師於利用AI協助提供照護時可採取之步驟,以履行其倫理與專業職責,期能藉此降低對患者造成傷害之風險;本指引之特色在於,其要求醫師為AI之利用結果負最終之責任。 FSMB 向各州醫療委員會與其他利害關係人所提供之原則與建議如下,以支持對包含AI之臨床照護進行負責任與符合倫理之監管: (1)透明度與揭露(Transparency and Disclosure): 應要求維持於醫療照護領域使用AI之透明度;各州醫療委員會應制定明確之指導方針,向患者揭露AI之使用情況,其有助於患者與醫師之理解,但不會造成不必要之行政負擔;FSMB 應制定文件,詳細說明最常用之AI工具之功能與局限性,以協助醫療委員會發揮監管者之角色,並應制定常見問題與最佳實務文件,作為提供照護時利用AI方面關於透明度之資源。 (2)教育與理解(Education and Understanding): FSMB及其於醫學教育界之合作夥伴,應為醫師、醫療委員會與患者,確認有關醫療照護中AI之結構化教育資源,該等資源應包括協助瞭解AI如何運作、其優點、潛在風險以及對患者照護之影響。 (3)負責任之使用與問責(Responsible Use and Accountability): 開發人員應協助醫師瞭解何時、以及如何於患者之照護中利用AI工具;選擇AI工具支援臨床決策之醫院系統、保險公司或其他機構應向醫師提供有關AI工具之教育、存取各工具之性能報告,並應設計一個定期檢視工具功效的流程;AI工具應以得使各州醫療委員會能稽核與理解之方式設計,以便適當評估依賴工具輸出結果之醫師是否偏離照護標準(standard of care);FSMB 應支持各州醫療委員會針對臨床醫師如何負責任、可問責地使用AI之解釋。 (4)公平性與近用(Equity and Access): 應努力確保所有患者皆能公平地近用AI帶來之好處;FSMB與各州醫療委員會致力於以下原則:醫療人員所提供之照護是公平的、且不受基於種族、民族或其他形式歧視之偏見影響;FSMB應與其他利害關係人一起理解並解決演算法偏差問題。 (5)隱私與資料安全(Privacy and Data Security): AI工具之開發者必須實施嚴格之保護措施,以保護AI開發與評估時所利用之患者資料,通常情況下應告知患者資料如何被利用,且FSMB應與行業利害相關人一起制定AI系統使用與散布患者資料之政策,包括針對AI開發或評估中使用之患者資料之最低資料保護措施。 (6)監督與監管(Oversight and Regulation): 各州醫療委員會必須保留對於提供醫療服務時,不當應用AI工具之醫生進行紀律處分之權力,其包括問責議題之考慮,特別是當AI系統變得更加自主時;各州醫療委員會應審查其管轄範圍內如何對「醫療行為」(practice of medicine)進行法律定義,以確保對提供醫療照護、人力或其他方面進行持續之監管監督。 (7)法律法規之持續審查與調整(Continual Review and Adaptation of Law and Regulations): 各州醫療委員會應在FSMB之支持下,隨著AI之不斷發展,持續檢視與更新與AI相關之指引與法規;政策制定者應考慮AI對基本法律原則的影響,例如醫療行為之定義以及AI對企業醫學實務之影響;FSMB 應建立一個專門團隊,持續檢視與調整AI指引與法規。 本指引指出,AI工具通常無能力取代醫師之專業判斷、道德責任或對州醫療委員會之責任,醫療行為中之關鍵職業責任始終為確保診斷、臨床決策與建議不存在偏差。與用於診斷或治療疾病之任何其他工具或鑑別方法相同,醫療專業人員有責任確保基於證據結論之準確性與真實性,因此於將AI系統用於患者照護前,醫師應以合理努力識別與解決偏差(如虛假或不準確之資訊等)。
歐盟執委會呼籲採取更嚴厲的手段解決垃圾郵件問題歐盟執委會(European Commission)日前再次呼籲歐盟各國加強處理公眾線上隱私威脅的問題。歐盟執委會所公佈的一項報告指出,雖然近年來歐盟各國皆有相關措施,例如課予垃圾郵件發布者罰款、有期徒刑等,但各國法令仍有相當大的差異。這項報告也認為,各國相關法律在歐盟電信法的改革之下,應更為明確且一致,並加強跨國合作。 歐盟執委會電信委員Viviane Reding表示,雖然歐洲的反垃圾郵件相關立法已有七年,但大部分的歐盟民眾仍受垃圾郵件影響。根據該報告,歐盟從2002年即已立法禁止發佈垃圾郵件及使用偵察軟體,但目前仍有約65%的民眾飽受垃圾郵件騷擾。 歐盟執委會的報告指出 : 目前幾乎所有會員國皆已設有相關網站,方便民眾取得垃圾郵件及偵查軟體的資訊或申訴。 在分析來自22國的140個案例後,發現各國所課予的罰款落差懸殊。罰款最高的依序為荷蘭(100萬歐元)、義大利(57萬歐元)及西班牙(3萬歐元 );但在羅馬尼亞、愛爾蘭及拉脫維亞等國,罰款的範圍則多在數百至數千歐元之間。 各級政府機關(電信主管機關、資料及消費者保護機關與執法機關等)責任劃分應更為明確,並有相互合作的機制。 垃圾郵件為全球問題,除了在歐洲境內的各國合作外,與世界各國的合作亦為重要。根據調查數據,平均每六封垃圾郵件中,就有一封是由美國境內所發出,因此目前歐盟執委會正與美國協商,討論雙方執行相關保護法規的跨境合作問題。 歐盟各國應分配足夠的資源予國內機關,以利蒐集證據、進行調查及起訴。 由歐盟執委會提出的歐盟電信法改革中,新增一條規定,要求違反各國國內線上隱私法的罰責必須為有效、實際且符合比例。
德國聯邦專利法院認定人工智慧不具專利發明人資格 但特別點出人工智慧在發明之貢獻德國聯邦專利法院在2021年11月中旬對美國發明人Stephen Thaler(後稱Dr. Thaler)所開發之AI系統(DABUS)是否能成為專利發明人作出判決,儘管AI在研發過程中協助發現問題並解決問題,法院仍認為專利發明人必須為自然人,但特別補充說明這項發明確實有得到AI的幫助。 Dr. Thaler及其法律團隊將該發明在各國進行專利申請。盤點各國智財局或法院之考量:美國專利商標局(USPTO)強調發明人應以自然人為由排除這類案件;儘管英國智財局(UKIPO)認同DABUS富有創新,卻否認其為合法發明人,不過認為有必要檢視AI技術帶給現存專利制度的挑戰,並已啟動針對AI發明之法律改革計畫;至於歐洲專利局(EPO)以不符合自然人或實體等資格而核駁這類案件,然而上訴結果將於12月下旬作出判決。 惟澳洲聯邦法院在7月底逆轉做出法律並未禁止以AI為發明人而提出專利申請之判決,這也是繼南非允許AI作為發明人而取得專利權之後的第二個案例。 根據各國智財局、世界智慧財產權組織(WIPO)與法院多將智慧財產係來自於心智創作,卻未定義該心智創作是來自於人類或AI,可預見非人類主體將可被視為發明人並授予智慧財產權。此外,現行智財法律也有重新檢視與定義之必要性,包括釐清AI演算法與AI開發者之角色以重新定義發明人資格或所有權人等議題。