簡介人工智慧的智慧財產權保護趨勢

近期人工智慧(Artificial Intelligence, AI)的智慧財產權保護受到各界廣泛注意,而OpenAI於2023年3月所提出有關最新GPT- 4語言模型的技術報告更將此議題推向前所未有之高峰。過去OpenAI願意公布細節,係由於其標榜的是開源精神,但近期的報告卻決定不公布細節(如訓練計算集、訓練方法等),因為其認為開源將使GPT- 4語言模型面臨數據洩露的安全隱患,且尚有保持一定競爭優勢之必要。

若AI產業選擇不採取開源,通常會透過以下三種方式來保護AI創新,包括申請專利、以營業秘密保護,或同時結合兩者。相對於專利,以營業秘密保護AI創新可以使企業保有其技術優勢,因不用公開技術內容,較符合AI產業對於保護AI創新的期待。然而,企業以營業秘密保護AI創新有其限制,包含:

1.競爭者可能輕易透過還原工程了解該產品的營業秘密內容,並搶先申請專利,反過來起訴企業侵害其專利,而面臨訴訟風險;

2.面對競爭者提起的專利侵權訴訟,企業將因為沒有專利而無法提起反訴,或透過交互授權(cross-licensing)來避免訴訟;

3.縱使企業得主張「先使用權(prior user right)」,但其僅適用在競爭者於專利申請前已存在的技術,且未來若改進受先使用權保護之技術,將不再受到先使用權之保護,而有侵犯競爭者專利之虞,因此不利於企業提升其競爭力。

綜上所述,儘管AI產業面有從開源轉向保密的傾向,但若要完全仰賴營業秘密來保護AI創新仍有其侷限,專利依舊是當前各企業對AI領域的保護策略中的關鍵。

本文同步刊登於TIPS網站(https://www.tips.org.tw

相關連結
你可能會想參加
※ 簡介人工智慧的智慧財產權保護趨勢, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8993&no=0&tp=1 (最後瀏覽日:2026/05/01)
引註此篇文章
你可能還會想看
英國政府擬限制18歲以下孩童於社群軟體按讚功能

  英國資訊委員辦公室(Information Commissioner’s Office, ICO)於今(2019)年4月15日發布「合適年齡設計:網路服務行為準則」(Age appropriate design: a code of practice for online services)諮詢報告,針對18歲以下孩童使用網路服務所涉及個人資料之相關議題提出遵循標準,要求網路服務提供商應受遵循以保障孩童隱私資訊。   本次諮詢報告主要針對網路服務如何適當確保孩童個人資料,同時符合歐盟《一般資料保護規則》(General Data Protection Regulation, GDPR)以及《隱私及電子通訊規則》(Privacy and Electronic Communications Regulations, PECR),若網路服務提供商未依循該行為準則,將很難證明符合GDPR、PECR規定,ICO亦採取監管措施(regulatory action),包含警告、譴責、執行通知、罰款等。於諮詢報告中,臚列涉及個人資料事項,包括資料共享、地理定位(geolocation)、家長監控(parental controls)、輕推技術(nudge techniques)、默認裝置(default settings)、側寫(profiling)等多達16項遵循標準,其中輕推技術引發抑制網路科技發展、過度監管爭議。   所謂「輕推技術」是指專為引導用戶或鼓勵用戶決策時可以點選之程式以表示用戶想法,簡而言之Facebook、Instagram按「讚」功能、社群軟體Snapchat「Streaks」互動功能,或是新聞網頁常見「是」或「不是」選擇性問題視窗等即是輕推技術應用。由於輕推技術之設計會蒐集用戶瀏覽網頁習慣,甚至透露其個人性格、生活狀態給廣告商或社群媒體等。   諮詢報告指出,依據GDPR前言第38點規定,因孩童對於其個人資料處理之可能風險、結果及相關保護措施及其權利認知較低,同時依GDPR第5條規定個人資料之蒐集處理與利用,對資料主體者應為合法、公正及透明(lawfulness, fairness and transparency)。但輕推技術的運用將會促使資料主體者更容易地提供其個人資料,同時,尤其會誘導兒童去選擇隱私保護較低的選項設定或花費更多時間在這些服務上,而此一技術之運用正是利用資料主體者之心理偏差(psychological bias),而違反了公平與透明原則。因此諮詢報告書要求網路服務提供商應主動限制孩童使用輕推功能。ICO於諮詢文件更詳細依0-5歲、6-9歲、10-12歲、13-15歲、16-17歲不同年齡層限制輕推技術應用之程度,或在何種情況須有家長陪同,以保障孩童隱私。   此項標準引來正反兩派意見,主張自由市場(free market)人士批評,認為有過度監管之嫌並阻礙科技發展,輕推技術本身不是問題,而是在於蒐集個人資料後要做那些運用,同時要如何執行限制技術之應用亦將是問題所在。而贊成者認為廠商如提供網路服務給所有年齡層時,應有特別措施以保護不同年齡層之人,因此對於孩童與成人間之監管程度應有區別。該諮詢報告於今(2019)年5月31日截止公眾諮詢階段,並預計2020年初施行該行為準則。

瑞典與法國簽署成立戰略夥伴關係進行綠色創新合作

  於2017年11月17日,瑞典與法國共同簽署成立戰略夥伴關係,共同致力於創新與數位化轉型,尋求綠色解決方案,由產業界、新創公司、學術界以及公共部門共同參與,此次合作兩大主軸分別為數位化轉型以及因應氣候變遷的綠色創新,工作細項側重四大領域: (1)運輸、乾淨能源與智慧城市的綠色創新方案:以大幅減少交通運輸所產生的溫室氣體為目標,瑞典希望相較於2010年,至2030年時至少減少國內運輸排放量百分之七十(不包括航空),法國則宣布希望至2040年前能結束出售以化石燃料運行的汽車,兩國將與企業共同合作尋求解決方案並創造就業機會。 (2)因應氣候變遷的綠色經濟:朝向低(零)碳排放量的社會前進,並制定一套適當的法律框架。 (3)數位化轉型、智慧產業與新創公司:兩國將使中小企業進行數位化轉型的知識交流,致力於支持中小企業數位化轉型進程;除此之外,為了實現長期的共同利益,善用彼此的相關研究,研究小組更進一步尋求雙方人力資源的合作,包含研究人員相互交流並鼓勵企業共同探索研發成果的商機。 (4)健康與生命科學創新:確立完善的健康照護體系以及衛生系統不斷的重新評估與改革對兩國相互交流醫療保健模式是有助益的,兩國重視當前高齡化的社會照護,通過科技創新在健康、福利與預防醫學上達到E化保健與遠程保健等目標,藉由以病人為中心的醫療體系,更新社會醫療保健模式。

歐洲民間成立一聯盟,倡議資料主權之重要性

  在今(2021)年1月21日,歐洲數個科技公司、非營利組織與研究機構等民間單位共同發起「現今資料主權」聯盟(Data Sovereignty Now,DSN),宣布將向歐洲各級決策者施加壓力,以確保資料(data)之控制權掌握在生成資料的個人和組織手中。該聯盟認為歐盟執委會應採取決定性之措施,對於在歐洲所生成之資料,應以資料主權原則為基礎,以確保生成資料之個人和組織對其有控制權,以利數位經濟。   而在2020年12月初,澳洲政府首開全球先例提出一新法案,要求Google與Facebook等平台應向澳洲在地媒體支付新聞內容費用,要求雙方進行協商,商討在其平台上顯示之新聞內容所應支付之費用,倘無法達成協議,則由政府之仲裁員決定應支付之金額。此法案引發Google與Facebook高度反彈,不惜以不繼續在澳洲提供服務或停止連結(link)當地媒體之新聞報導作為反擊,要求澳洲政府撤回或修改該法案;然DSN聯盟則認為,Google與Facebook利用其市場主導地位來向澳洲政府施加壓力,正是濫用其資料壟斷權(data monopoly)與壟斷地位之典型例子,為防止科技巨擎將來繼續以此方式勒索政府之唯一方法,即是恢復使用者與平台間之「數位利益平衡」。而Google似有讓步之跡象,根據路透社報導,Google分別已與兩家當地媒體達成協議,將各支付每年3000萬澳幣之費用。該法案是否會如期通過,進而改變或影響此類大型平台與各國政府間資料主權之角力關係,值得持續關注。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

TOP