美國司法部(United States Department of Justice)、美國專利商標局(The United States Patent and Trademark Office)、美國國家標準與技術研究院(National Institute of Standards and Technology)於2021年12月6日共同發布「修改『標準必要專利』授權協議及司法救濟方法之政策宣言草案」(Draft Policy Statement On Licensing Negotiations And Remedies For Standards-Essential Patents Subject To Voluntary FRAND Commitments,下稱2021政策宣言草案),並徵集公眾意見,截止時間為2022年2月4日。2021政策宣言草案係在回應2021年7月9日「促進美國經濟體競爭性行政命令」(Executive Order on Promoting Competition in the American Economy)關於檢討2019年「有關『標準必要專利』司法救濟方法之政策宣言」(Policy Statement On Remedies For Standards-Essential Patents Subject To Voluntary FRAND Commitments,下稱2019政策宣言)之要求。
2021政策宣言草案揭示了兩大重點:
(一)改變SEP被侵害時,對禁制令(injunction)之核發態度
2021政策宣言草案對於「SEP被侵害時,是否核發禁制令」一事,擬回歸適用聯邦最高法院自eBay Inc. v. MercExchange, L.L.C., 547 U.S. 388 (2006)案以來,就禁制令之核發所設立之原則—(1)原告(專利權人)會因專利侵權而遭受無法填補(irreparable)的損害;(2)目前法律上之其他救濟方法,是不足以賠償專利權人所受的損害;(3)衡量專利權人及被授權人可能遭遇之困難,足認有必要進行衡平法上的救濟;(4)核發禁制令不會傷害到任何公共利益。
(二)揭示何謂符合「誠信原則」(good-faith)授權協議的指導原則
(1)雙方應以合宜態度推進授權協議:
以SEP專利權人而言,其應向潛在被授權人告知可能侵害該SEP的行為態樣;其並以「公平、合理及無歧視」(fair, reasonable, and non-discriminatory, FRAND)原則進行授權。
以SEP被授權人而言,其應於知悉以上資訊後,於商業上得被認為合理的時間內,以合宜態度推進該協議,或逕自接受該授權協議,或拒絕原要約而反向提出一合於FRAND原則之新要約(counteroffer)。其他合宜態度例如:就SEP專利權人提出進一步探詢(例如:詢問該SEP目前之專利有效性及有無侵權情形)或請求提供更具體的資訊,或建議目前雙方所遇到的授權上爭議可透過公正第三方解決。
茲有附言者,SEP專利權人在收到以上回應後,亦應「於合理的時間以合宜態度」推進授權協議,例如接受被授權人反向提出之新要約,或為使原授權協議較可被接受,再行提出一合於FRAND原則之授權條款,或回應被授權人想得知更多資訊之請求,或亦提出「可透過公正第三方解決雙方所遇到之授權紛爭」的方案等。
(2)雙方應合宜妥善解決紛爭:
如雙方因授權而生紛爭,建議尋求替代爭議解決方式(alternative dispute resolution);如仍欲透過司法解決,建議雙方就管轄法院達成合意,而非單方面擇定法院而提起訴訟。
此次徵求公眾意見的主要議題如下:
(1)2021政策宣言草案是否較可適當平衡SEP專利權人及被授權人之利益?
(2)「可申請核發禁制令」一事是否為SEP專利權人願意遵守FRAND原則的重要因素?
(3)如何提升SEP授權協議之效率及透明度?
(4)2021政策宣言草案所揭示對於SEP授權時之「誠信原則」之指導原則,可否為SEP授權協議建構良好架構?
(5)是否有潛在SEP被授權人願意及不願意接受FRAND授權協議之情形?
(6)有關單位是否曾經或應就SEP授權協議提供其他參考資訊?
本文為「經濟部產業技術司科技專案成果」
澳洲工業、科學及資源部(Department of Industry, Science and Resources)於2025年12月2日發布「國家AI計畫」(National AI Plan),擘劃了澳洲至2030年的AI發展藍圖,將「掌握機遇」、「普及效益」與「確保人民安全」列為三大發展方向。該計畫將透過基礎建設投資、人才培育、產業支持,以及強化監管能力等途徑,打造一個更具競爭力、包容性與安全性的 AI 生態系統。 國家AI計畫的另一個重點在於,澳洲政府打算透過現有的法律監管架構治理AI,而不另立AI專法。此舉是回應澳洲生產力委員會(Productivity Commission)於8月提出之建言:政府在推動創新與訂定規範時必須取得平衡,應暫緩推動「高風險 AI 的強制護欄(mandatory guardrails)」,僅有在現行制度無法處理AI衍生之危害時,才有必要考慮制定 AI 專法。 據此,國家AI計畫指出,面對AI可能造成的危害,現有制度已有辦法進行處理。例如面對使用AI產品或服務的爭議,可依循《消費者保護法》(Australian Consumer Law)取得權利保障;AI產品或服務的風險危害,亦可透過《線上安全法》(Online Safety Act 2021)授權,制定可強制執行的產業守則(enforceable industry codes)來應對。澳洲政府未來也將推動《隱私法》(Privacy Act 1988)修法,意欲在「保護個人資訊」與「允許資訊被使用及分享」之間取得適當平衡。 同時,由於採用分散式立法的關係,澳洲特別成立「AI 安全研究院」(Australian AI Safety Institute, AISI),以強化政府因應 AI 相關風險與危害的能力。AISI將協助政府部門內部進行監測、分析並共享資訊,使部門間能採取即時且一致的治理政策。 澳洲政府曾在2024年9月研議針對高風險AI進行專門的監管,但因擔心過度立法恐扼殺AI發展轉而採用「科技中立」的監管方式,以既有法律架構為基礎推動AI治理。此與歐盟的AI治理邏輯大相逕庭,未來是否會出現現行制度無法處理之AI危害,抑或採用現行法制並進行微調的方式即可因應,值得持續觀察。
解析生技製藥研發成果涉及智慧財產保護之新課題 歐盟提出人工智慧法律框架草案歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。 新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。 未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。
日本經產省為了促進智慧家庭(smart home)計畫,以促進資料共享與利用。經產省為了在智慧家庭領域創造新事業,整備相關資料活用環境,蒐集共有及分析從多種多樣機器及服務所實際產出之資料,於2017年8月開始實施實證實驗。在實施前,為了使參加實證之民間公司間,得為資訊合作而完備相關規則及保安對策,於5月24日召開「智慧家庭資料活用環境整備推進事業」檢討會。因物聯網(IoT)的擴大得以蒐集龐大資料,以及現在人工智慧(AI)解析能力提高下,期待在各種領域提高生產效率及創造新的事業模式。特別是在智慧家庭領域,其在「新產業構造願景的中間整理」(2016年4月27日、產業構造審議會新產業構造部會)中,為有力重要領域。因此,以IoT技術等使家庭內機器網路化,活用此一資料,除了使既存事業模式發生變革或創造新事業模式外,也期待可以透過把握製品之使用資訊,而提高產品回收(recall)率,並促進資源回收以及家庭部門節能化等相關社會課題解決上。為此,本事業係以對於家庭內機器網路化及透過此而創造新事業為目標,整備事業環境與社會課題及各主題新事業服務創造相連結,因應每個人的生活模式而使得生活空間客製化成為可能,實現智慧家庭之社會目標。