2014年Akamai Technologies針對最高法院提起上訴,因此發回聯邦巡迴法院重審,而後上訴法院認為Limelight Networks確實侵害Akamai的專利,Akamai並獲得$ 45.5萬美元的損害賠償。 2006年,Akamai Technologies公司(下稱Akamai)在美國馬薩諸塞州地方法院起訴Limelight Networks(下稱Limelight),指控Limelight侵害Akamai美國專利號6108703。原告Akamai的專利是有效傳送網頁內容的方法專利。而被告Limelight是經營伺服器網路的公司,和Akamai該專利的差別在於Limelight指示用戶完成其中一個修改的步驟。
本案從2006年一直持續到2014年向最高法院上訴為止,都是依據美國專利法第271條規定直接和間接侵權的概念。在原審認為「實施該方法專利」的侵權行為,是要求實施方要獨立完成該侵權行為,所以Limelight不能被視為直接侵權。又因為Limelight公司並沒有滿足單一實體規則(single-entity rule),控制或指示(control or direction)其實施方完成其他的專利之方法步驟,所以不用負共同侵權責任。
但上訴聯邦巡迴法院一致贊成Akamai被侵權,並指出如果被告 Limelight知道並使用專利權人Akamai的專利,而且執行大部分的步驟,只保留一項步驟未執行,進而引誘用戶執行該方法專利的最後一個步驟,且用戶真的執行了該最後一步驟, Limelight就構成美國專利法271(b)間接侵權中的引誘侵權。
韓國公平交易委員會(Fair Trade Commission, FTC)於2023年12月19日宣布將制訂《平臺競爭促進法》(Platform Competition Promotion Act, PCPA),針對市場中大型線上平臺業者,提前認定為具有市場主導地位,禁止提供優惠待遇(preferential treatment)及搭售(tie-sale)等不公平競爭行為,保護小型企業及避免消費者受到大型線上平臺業者壟斷市場的影響。 《平臺競爭促進法》將透過營業收入、使用者數量、市場份額及市場參進障礙等特定條件,認定平臺業者是否具有市場主導地位,被指定具有主導地位的業者則會被禁止從事以下行為:(1)自我偏好行為,禁止平臺業者在平臺上以較競爭者更有利之方式,曝光其本身販售的產品;(2)搭售行為,迫使平臺使用者在購買平臺所提供的產品或服務時,必須同時購買其他產品;(3)限制多棲(multi-homing)或禁止使用者使用其他平臺;(4)要求比其他平臺更優惠的交易條件。 依據韓國《公平交易法》現行法規規定,企業從事不公平競爭行為,最多僅能處以其營業額6%的罰鍰;若於《平臺競爭促進法》制定後,被認定具有市場主導地位的平臺業者從事不公平競爭行為時,將依《平臺競爭促進法》最高可處其營業額10%之罰鍰。平臺業者被委員會指定為具市場主導地位的平臺時,業者仍可在(1)指定前提交意見;(2)指定後提出異議,或以(3)提出行政訴訟等方式保障其權利。 我國公平交易委員會於2022年12月提出數位經濟競爭政策白皮書,內容包含數位經濟下可能面臨的議題及執法立場與方向。近來韓國科技產業與社會經濟發展屢次成為我國相關產業比較對象,未來可持續關注韓國對於跨領域科技產業影響市場公平競爭之治理發展,作為我國因應數位經濟競爭法相關議題之參考基礎。
英國智慧財產局發布「標準必要專利2024年展望」,確立未來關鍵目標英國智慧財產局(Intellectual Property Office,下稱UKIPO)於2024年2月27日發布「標準必要專利2024年展望」(Standard Essential Patents: 2024 forward look),確立未來關鍵目標如下: (1)幫助專利實施者,尤其是中小企業可更好理解標準必要專利生態系,以及「公平、合理且無歧視」(Fair, Reasonable, and Non-Discriminatory, FRAND)授權原則; (2)針對定價和必要性,提高標準必要專利生態系的透明度; (3)加強使用仲裁和調解制度,提高爭議解決效率。 為達上述目標,英國計畫導入以下措施: 1.設立「標準必要專利資源中心」 UKIPO預計在2024年5月前設立一線上資源中心,以提供工具、指南和其他素材等方式,協助標準必要專利生態系中之專利實施者。 2.加強與國際及標準制定組織的交流 有鑑於SEP是全球性議題,UKIPO將就標準必要專利全球生態系挑戰,加快與其他國家有關當局的討論;UKIPO並將就智慧財產權政策及中小企業參與標準化等事宜,加強與標準制定組織之間的合作。 在推動上述措施後,UKIPO預計於2024年至2025年間展開一場「與技術相關」的公眾意見徵集(a public technical consultation)。UKIPO表示,任何需要進行SEP立、修法的方法都將是公眾意見徵集的一部分,惟不會包括「當標準必要專利被侵害時,是否要限制核發禁制令(injunction)」一事。
美國OMB發布人工智慧應用監管指南備忘錄草案美國行政管理預算局(United States Office of Management and Budget, OMB)於2020年1月發布「人工智慧應用監管指南(Guidance for Regulation of Artificial Intelligence Applications)」備忘錄草案。該備忘錄草案係基於維護美國人工智慧(AI)領導地位之目的,而依據美國總統川普(Donald John Trump)於2019年2月簽署之「維持美國人工智慧領導地位(Maintaining American Leadership in Artificial Intelligence)─行政命令13859號」,並在啟動美國人工智慧計畫後180天內,經OMB偕同科技政策辦公室(Office of Science and Technology Policy, OSTP)、美國國內政策委員會(United States Domestic Policy Council)與美國國家經濟委員會(National Economic Council)與其他相關機構進行協商,最後再由OMB發布人工智慧應用監管指南備忘錄草案,以徵詢公眾意見。 該備忘錄草案不僅是為了規範新型態AI應用技術,更希望相關的聯邦機構,在制定AI應用產業授權技術、監管與非監管方法上,能採取彈性的制定方向,以避免過度嚴苛的規定,反而阻礙AI應用的創新與科技發展,繼而保護公民自由、隱私權、基本權與自治權等價值。同時,為兼顧AI創新與政策之平衡,應以十大管理原則為規範制定之依據,十大管理原則分別為: 培養AI公眾信任(Public Trust in AI); 公眾參與(Public Participation); 科學研究倫理與資訊品質(Scientific Integrity and Information Quality); AI風險評估與管理(Risk Assessment and Management); 獲益與成本原則(Benefits and Costs); 彈性原則(Flexibility); 公平與反歧視(Fairness and Non-Discrimination); AI應用之揭露與透明化(Disclosure and Transparency); AI系統防護與措施安全性(Safety and Security); 機構間之相互協調(Interagency Coordination)。 此外,為減少AI應用之阻礙,機構制定AI規則時,應採取降低AI技術障礙的方法,例如透過聯邦資料與模型方法來發展AI研發(Federal Data and Models for AI R&D)、公眾溝通(Communication to the Public)、自發性共識標準(Voluntary Consensus Standards)之制定及符合性評鑑(Conformity Assessment)活動,或國際監管合作(International Regulatory Cooperation)等,以創造一個接納並利於AI運作的環境。
OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。