今年1月16日(週三),美國聯邦最高法院將韓國LG電子公司與台灣廣達(Quanta)電腦公司的訴訟案排入審判的程序之中,並預計今年六月底左右會有相關的判決結果產生。此案件之所於引人注目,主要是本案爭議的內容在於LG公司將其記憶體相關的專利權授權給美國Intel公司。而台灣廣達公司自Intel公司購買部分經LG授權的零組件,並用來製造筆記型電腦。
LG公司發現此情形之後,遂向美國法院控告廣達公司的行為侵害該公司的專利權,LG公司主張其授權並不包含對Intel公司以外的廠商,所以廣達公司的行為侵害該公司的權利;但廣達公司則主張Intel公司已取得授權,有權對外銷售,因此廣達公司的行為是合法的行為。
由於美國地方法院判決對LG有利,所以廣達公司不服因而提起上訴,本案也已經進入聯邦最高法院的訴訟程序,最後判決結果如何,將影響未來專利權擁有者與被授權者之間的關係,究竟收取權利金的範圍是否及於供應鏈或中下游的廠商等,成為眾人關注的焦點,也因此相關產業人士皆十分關注本案的發展。
本文為「經濟部產業技術司科技專案成果」
美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。 美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。 倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。 美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。 除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
何謂「群眾募資(crowdfunding)」?「群眾募資(crowdfunding)」過去原泛指一切提出資金需求計畫,向社會大眾招募資金的行為;目前則指資金需求者透過群眾募資網路平台提出資金需求,由平台代為籌資後再將資金轉交與資金需求者之活動。 群眾募資可紓解創業家有創意無資金無擔保品的資金困境,因此主要運用於難以透過傳統金融管道取得資金之產業,例如文化創意產業。然而除了商品生產或短期計劃的募資,廣義的群眾募資運用尚包含永續的事業資本募集以及週轉資金募集。目前各種群眾募資模式可分為捐贈模式、股權模式及債權模式: 1、捐贈模式:群眾捐錢贊助某個特定方案,但不期待因個人的捐助而獲得任何金錢上的回報。但通常會獲得提案者承諾提供之實物或者是體驗服務作為回饋。 2、資本模式(或稱股權模式):群眾透過網路平台將金錢投入某個專案,未來可以獲得因該專案所成立之公司的股票,或者是獲得盈餘或收益的分配。 3、債權模式:群眾透過網路平台將金錢借給某個專案或某人某公司,承諾未來會償還所借之金額及利息。
歐洲專利局2019年專利指數歐洲專利局(EPO)於2020年3月12日公布「2019年專利指數」(EPO Patent Index 2019),歐洲專利局在2019年全年受理超過18萬件的專利申請案件量,達到歷史新高,其中以來自中國大陸的申請案件量成長29.2%為主要來源;在專利領域方面則以數位通訊及電腦科技兩大領域的申請案件量,分別較前一年度成長19.6%及10.2%最為顯著,反應全球積極布局數位轉型相關科技趨勢。 根據歐洲專利局的統計,數位通訊領域專利申請量的成長,在十年來首次超越醫學技術,主因為反應世界各國積極發展5G通訊技術的腳步,來自中國大陸的專利申請量在通訊技術領域帶頭成長了64.6%,在專利申請人則以華為居首,其次為愛立信,高通第三。而在電腦科技領域,則以AI相關技術包含機器學習、模式識別(pattern recognition)、圖像識別與生成、資料檢索等技術為大宗,專利申請量成長率由美國領軍為13.6%,在專利申請人則以Alphabet(Google母公司)居首,接著為微軟、三星,華為第四。 藉由「2019年專利指數」可以發現兩大趨勢,其一為數位通訊及電腦科技領域專利申請的快速增長,顯示各國布局數位轉型已蓄勢待發,並以5G與AI兩大技術為數位轉型核心;其二為在數位轉型科技領域的專利申請人中,中國大陸在數位科技的積極布局,特別是華為以3524項專利申請案位居全球專利申請人之首,反映中國在全球數位轉型浪潮中的積極布局。