美國聯邦巡迴上訴法院在2009年底於The Forest Group Inc. v. Bon Tool Co. 一案中將美國專利法35 U.S.C. § 292中關於不實專利標示(false patent marking)的懲罰金計算方式認定為罰金之計算是以每一個標示錯誤專利資訊的產品為基礎。美國專利法35 U.S.C. § 292中要求法院對專利資訊標示不實或錯誤之產品或包裝處以最高美金$500的罰金。在此案之前,許多地方法院將35 U.S.C. § 292解釋為罰金之計算是以每一次被告”決定”將產品標示不實專利資訊為基礎 (single penalty for each “decision” to falsely mark products),不論此決定是包含一個或一整批產品。在本案中,聯邦巡迴上訴法院同意地方法院的看法認定被告Forest Group意圖藉不實專利標示企圖欺騙大眾但撤銷地方法院將罰金定為$500之判定,而將目前專利法35 U.S.C. § 292 解釋為罰金是以”每一個”標示錯誤專利資訊的產品為基礎 (penalty for false marking on a per article basis)。
為了防範日後因此案罰金計算方式而造成所謂”標示流氓”(marking trolls) 之興起,聯邦法院於其判決中特別說明其解釋並非要求法院必須將每一標示錯誤專利資訊的產品處以$500美元的罰金。因法條中之罰金是以美金$500為上限,法院有權利權衡各案例背景決定罰款金額。例如,針對大量製造但價錢低廉的產品, 法院可對每一個產品處以極少的罰金。
The Forest Group 一案是美國聯邦巡迴上訴法院第一次針對不實專利標示之罰金提出解釋,直得關注其後續引發反應。廠商也應重新檢視其產品專利標示是否有不實或錯誤之狀況以避免被控標示不實專利資訊而被處以罰款。
澳洲高等法院(澳洲的最高司法機關)在10月7日時做出重要判決,認為單純從人類基因體分離出來的基因序列,不足以作為專利的申請標的。本案的原告是一名69歲曾罹患乳癌的女士,他向法院起訴請求法院宣告Myriad 基因公司所擁有的BRCA1基因專利中部分的專利範圍(claim)無效。BRCA1基因的突變(mutation)或特定的表型被認為與乳癌及卵巢癌的發生機率有關。在先前的審級,法院都判決被告勝訴,但高等法院推翻了先前的見解,以7票贊成0票反對的比數\判決原告的上訴有理由,Myriad基因公司的專利無效。本案由首席法官連同其餘三位法官提出多數意見,另外有兩份協同意見。 本案的主要爭點在於系爭專利是否符合澳洲1990年專利法(Patents Act 1990)中,對專利應屬於一種「生產方式」(manner of manufacture)的規定。多數意見認為系爭的專利範圍只是BRCA1基因的序列,這些資訊並非由人類所「製造」,而僅是由人類所辨別。因此這無法被視為是一種生產的方式,不符合專利法的相關要求。若要將其視為生產方式,則需要進一步擴張生產方式的概念範圍,不適合由法院進行判斷。同時法院認為這個專利可能造成寒蟬效應,使得與BRCA1相關的分離技術變得過於昂貴或形成事實上的壟斷狀態,也與專利法希望促進發明的初衷不符。最後,法院在確認澳洲對於是否應承認此類專利並無國際法上的義務後,宣告此專利無效。 澳洲的學界對此判決表示歡迎,認為此判決將使醫療人員執行職務時免於侵犯智慧財產權的恐懼。但澳洲的生技產業則認為這個判決可能會打擊相關的研究,造成負面影響。澳洲法院的判決與美國先前的判決見解相當類似,同時該判決也可能對於其他國家的類似案件發生影響。例如在加拿大的一個與罕見心臟疾病基因有關的官司,就很可能會受到本判決的影響也宣布該基因專利無效。
韓國簽署網路漫畫著作權保護相關協議韓國創意內容振興院(Korea Creative Content Agency, KOCCA)、韓國著作權保護院(Korea Copyright Protection Agency, KCOPA)及韓國漫畫家協會,為杜絕非法傳播網路漫畫,營造網路漫畫著作權保護環境,保護網路漫畫著作權,已於2023年3月10日宣布與相關機構簽署協議,創造著作權保護環境,以營造適當之網路漫畫消費文化。 根據2022年發佈之《2022年上半年內容產業趨勢分析報告》顯示,2022年上半年,網路動漫內容產業出口金額比2021年增長27.9%,約 5600 萬美元(725 億韓元),相關產業正穩定增長中。然而,截至2021年,網路漫畫非法發行市場規模卻比起2021年增長53%,達到8427億韓元,表明非法發行造成的損失規模正在迅速擴大。 依據網路漫畫著作權保護協議,相關單位將共享現有網路漫畫著作權保護運作之經驗及必要資源,規劃三方合作提高網路漫畫用戶著作權保護意識之活動宣傳、共享網路漫畫著作權保護資料,相互合作查明非法使用網路漫畫的國內外實際情況,推動網路漫畫著作權產業正向運作。 漫畫產業之串流時代已逐漸形成,尤以韓國及中國大陸成長迅速,侵權問題亦隨之攀升,如何在快速發展之內容產業中,互通著作權資訊及提前預防侵權,係產業需關注之問題。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
新加坡金融管理局(MAS)發布「人工智慧風險管理工具包」新加坡金融管理局(MAS)於 2023 年中旬啟動「MindForge 計畫」,旨在協助金融機構強化其人工智慧(AI)風險管理能力。該計畫於2026年3月20日完成第二階段,並發布由MAS聯合24家領先銀行、保險公司與資本市場公司等產業夥伴共同開發的「人工智慧風險管理工具包」。該工具包內含「AI風險管理營運手冊」(下稱「營運手冊」)與「AI風險管理實施案例」(下稱「實施案例」),提供實務資源以管理涵蓋「傳統AI」、「生成式AI」及「新興代理型AI」技術的相關風險,確保產業能安全且負責任的導入AI。「營運手冊」依據MAS的監理期望,將AI 風險管理框架分為四大核心:一、範圍與監管:建立AI治理框架並釐清AI監督的角色與責任。二、AI風險管理:透過組織的系統、政策與程序,識別AI應用情境,進行風險重大性評估,並建立AI盤點清單。三、AI生命週期管理:實施AI應用完整生命週期的控制措施。四、促成因素:發展組織能力、基礎設施與資源,以確保能持續支持負責任的AI應用。「實施案例」則收錄如星展銀行(DBS)及瑞士寶盛(Julius Baer)等機構的AI風險管理實務。未來,MAS 將於「BuildFin.ai」倡議下成立專責小組,持續開發建構管理新興技術風險的框架。 相較於新加坡著重建立全方位治理架構,資訊工業策進會科技法律研究所創意智財中心(下稱「資策會科法所創智中心」)於同年 2 月發布之「金融業人工智慧(AI)風險管理實務指引」,則更強調將風險控管「整合」至既有流程中,透過與業務流程的結合實踐韌性管理。該指引奠基於「人工智慧基本法」,並進一步連結「台灣智慧財產管理規範(TIPS)」驗證角度,協助機構精準掌握應用情境並具體化風險。透過將管控機制立基於資安、資訊及智財三大支柱,降低法遵成本與業務衝擊,並藉由分階段與分級管理,引導金融機構從核心防護逐步深化管控機制。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議: (一)關於人工智慧及應用界定與發展 人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。 (二)未來對社會及政府利益及衝擊 人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。 目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。 在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。 (三)關於相關道德及法律風險管理課題 人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考: (1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。 (2)調適由人工智慧作決策行為時的歸責概念和機制。 有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。 針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。 人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。