美國司法部(United States Department of Justice)與11個州檢察總長2020年10月20日於哥倫比亞特區地方法院聯合向Google提起反托拉斯民事訴訟,依據《休曼法》(Sherman Act)第2條,以「非法利用優勢地位進行排他行為,強化自身市場力量」為由起訴 Google。美國司法部認為,Google利用自身在電子數位設備提供搜尋服務和搜尋廣告市場(search advertising markets)的壟斷地位,損害競爭對手和消費者利益,並利用特殊協議和商業慣例,佔據美國九成以上的搜尋市場,在網頁瀏覽器和手機搜索領域建立難以被超越的商業優勢。Google的反競爭策略(anticompetitive tactics)讓它能維持甚或擴大壟斷地位,削弱競爭並扼殺創新。
美國司法部與阿肯色州、佛羅里達州、喬治亞州等11個州聯合提出訴訟,指稱Google達成一系列的排他性協議(exclusionary agreements),要求將Google設置為數十億用戶之手持行動裝置或電腦的預設搜尋引擎,並且在許多情況下禁止預先安裝(preinstallation)競爭對手軟體。起訴書指稱Google透過以下方式違法維護搜尋和搜尋廣告的壟斷地位:(1)簽訂排他性協議,禁止預先安裝任何競爭對手的搜尋服務;(2)無視消費者意願,包裹式(tying)安排強迫Google搜尋軟體APP需預先安裝在行動設備的主要位置,且不可刪除;(3)與Apple達成長期協議,將Google作為Safari瀏覽器或其他搜尋工具的預設搜尋引擎(但實際上是獨家搜尋引擎);(4)利用自身獨占優勢和利潤,給予設備商、網頁瀏覽器業者和其他搜尋工具業者更多的優惠待遇,創造無間斷的強化獨占循環。
司法部認為,Google的反競爭措施阻止其它競爭對手達到經營規模,進而消除美國大多數搜尋查詢的競爭。也因為限制競爭,Google得以降低搜尋品質(例如引起隱私、資料保護、和消費者利用爭議等),從而損害消費者並阻礙創新;此外Google可以向廣告客戶收取高於市場價格之費用,並降低客戶服務品質。
而面對美國司法部控訴,Google表示這些指控具有「嚴重瑕疵」(deeply flawed),消費者選擇Google並非被強迫,而是因為Google是最優秀的搜尋工具。蘋果的Safari瀏覽器預設使用Google搜尋,是因為蘋果公司認可Google搜尋的品質,且競爭對手(Bing和Yahoo!)亦以付費方式出現在Safari介面可供消費者選擇。而微軟在Windows設備上預載之Edge瀏覽器,是以Bing為預設搜尋工具。此外,Google和Android營運商和設備商簽訂促銷協議以推廣Google,該協議可以直接降低手機價格;但即使簽署協議,Android仍會預載其他競爭者的APP和APP Store。是故,Google認為司法部若勝訴,將讓消費者只能用品質較差的搜尋工具以及支付更高的手機價格。
本文為「經濟部產業技術司科技專案成果」
2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。
歐洲專利局拒絕以AI為發明人的專利申請歐洲專利局於2019年12月20日,拒絕受理兩項以人工智慧為發明人的專利申請,並簡扼表示專利上的「發明人」以自然人為必要。另於2020年1月28日發布拒絕受理的完整理由。 系爭兩項專利均由英國薩里大學教授Ryan Abbott(下稱:專利申請人)的團隊申請,並宣稱發明人是「DABUS」。DABUS並非人類,而是一種類神經網路與學習演算法的人工智慧,由Stephen Thaler教授發明並取得專利。專利申請人先於2019年7月24日將自己定義為DABUS的雇主並遞出首次專利申請,再於2019年8月2日改以權利繼受人名義申請(Successor in Title)。專利申請人強調系爭申請是由DABUS發明,且DABUS在人類判定前,即自我判定其想法具新穎性(identified the novelty of its own idea before a natural person did)。專利申請人認為該機器應可以被視為發明人,而機器的所有人則是該機器創造出的智慧財產權之所有人─這樣的主張是符合專利系統的主旨,給予人們揭露資訊、商業化和進行發明的動機。申請人進一步強調:承認機器為發明人可以促進人類發明人的人格權和認證機器的創作。 在經過2019年11月25日的聽證程序(Oral Proceedings)後,歐洲專利局決定依《歐洲專利公約》(European Patent Convention)Article 81, Rule 19 (1)駁回申請。歐洲專利局強調,發明人必須是自然人(Natural Persons)是國際間的標準,且許多法院曾經對此做過相應的判決。再者,專利申請必須強制指定發明人,因為發明人需要承擔許多法律責任與義務,諸如取得專利權後衍生的法律權利。最後,雖然Article 81, Rule 19 (1)規定發明人應該要附上姓名與地址,但單純幫一個機器取名字,並不會使之符合《歐洲專利公約》的發明人要件。歐洲專利局強調,從立法理由即可知道,《歐洲專利公約》的權利主體僅限自然人和法人(Legal Persons)、專利申請的發明人僅限自然人。歐洲專利局表示,目前AI系統或者機器不具有權利,因為他們沒有如同自然人或法人一樣的人格(Legal Personality)。自然人因為生命而擁有人格,而法人的法人格來自於法律擬制(Legal Fiction)。這些法律擬制的人格來自於立法者的授權或者眾多司法判決的演進,而AI發明者是不具有此般的法律擬制人格。
美國專利與商標局推出COVID-19專利優先審查領航計畫因應嚴峻的新冠肺炎,美國專利與商標局(United States Patent and Trademark Office, USPTO)於2020年5月8日公布「COVID-19專利優先審查領航計畫」(COVID-19 Prioritized Examination Pilot Program)。本領航計畫的法源依據是《美國專利法》第1.183條,授權局長在極特殊的狀況下,更改專利審查規則。本專利優先審查領航計畫之重點有二:其一,原本優先審查必須繳交相關的費用,本計畫針對小型或微型機構給予免費優待。其二,優先審查以12個月內完成最終處置(Final Disposition)為目標,並期待在6個月內完成。所謂最終處置包含:寄出核准領證通知(the mailing of a notice of allowance)、寄出最終核駁通知(the mailing of a final Office action)、請求延續審查(the filing of an RCE)、放棄申請(abandonment of the application)、提出上訴通知(the filing of a Notice of Appeal)。 美國專利與商標局局長Andrei Iancu表示:「獨立發明人與小型企業創新能力不亞於大企業,固有必要在對抗大型全球流行疾病給予有利的援助。為此,美國專利與商標局政策上給予小型或微型機構優先審查的程序優待,企盼加速其所提出之新冠肺炎相關的專利審查。」本計畫適用對象僅限於合於條件的小型或微型機構(Small or Micro Entity)。按美國專利審查程序指南(Manual of Patent Examining Procedure, MPEP)第509.02及509.04條,所謂小型機構係指個人、少於500人之公司、非營利組織和大學;微型機構則是指該機構作為申請人或投資人,其前一年年收入,少於美國家庭年收入中位數的三倍。 本專利優先審查領航計畫的專利請求項,必須是美國食品藥品監督管理局(United States Food and Drug Administration, FDA)批准,用以預防或治療新冠肺炎的產品或方法,包含但不限於:試驗用新藥(Investigational New Drug, IND)申請、臨床試驗器材豁免(Investigational Device Exemption, IDE)、新藥申請(New Drug Application, NDA)、生物製劑許可申請(Biologics License Application, BLA)、上市前許可(Premarket Approval, PMA)或緊急使用授權(Emergency Use Authorization, EUA)。
OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。