美國聯邦第三巡迴上訴法院於2014年時對於Takeda Pharmaceutical Co.(Takeda) v. Zydus Pharmaceuticals (Zydus) 一案判定:學名藥廠Zydus並無構成專利侵權,且原廠Takeda於本案的系爭專利並無失效[1]。惟本案的學名藥廠Zydus隨後向Takeda提起另一訴訟:Zydus聲稱該案的專利侵權訴訟是假訴訟(sham litigation)[2],亦即,Takeda 提起專利侵權訴訟之本意在於阻卻Zydus的學名藥參與市場競爭,而非旨在確認侵權事實或請求賠償。Takeda隨後提起反訴,主張美國The 1984 Hatch-Waxman Act[3]已明確賦予專利權人提起專利權侵權訴訟之權利,既有訴訟權,便無假訴訟之虞。
美國聯邦貿易委員會(Federal Trade Commission, FTC)對於上述兩藥廠間的假訴訟爭議,在2018年6月時發布法庭之友意見書(amicus brief [4]),以5-0決議呼籲本案法院應對於假訴訟爭議進行審查。本意見書指出,The 1984 Hatch-Waxman Act、競爭法、專利法或其他醫藥法規,無任何關於藥品侵權訴訟得以免除假訴訟審查之規定。再者,FTC實有權限依據豁免原則(Noerr-Pennington Doctrine)及相關判例,就主觀與客觀要件,審查相關爭訟是否為假訴訟:(1)該爭訟程序客觀上是否無理由,提出爭訟者現實上是否不期待勝訴;(2)該爭訟程序當事人主觀上是否有意利用程序,直接地干擾競爭對手的商業關係。本意見書並進一步說明,原廠Takeda所提專利權侵權訴訟,即使學名藥廠Zydus之專利侵權事實為真,惟只要Takeda行為符合假訴訟主、客觀要件,仍有可能構成假訴訟;亦即,「是否侵權」與「是否該當假訴訟」兩者之判斷是分開的。
[1] 原廠藥之英文為branded drug,指一個藥廠自研發、生產、上市,而握有專利權之藥品,通常具有強大品牌名聲、價格通常也高;學名藥廠則是待原廠藥專利權屆滿後、或以侵權之方式,而製造與原廠藥相同或相似之藥物,學名藥價格相對較低,但在安全與效用上時常有疑慮。
[2] 美國競爭法豁免原則(Noerr Pennington Doctrine)下,私人爭訟方或單位,運用爭訟或政府程序等以促進法案的通過、增進法律執行等,免除競爭法之相關責任。但該責任免除之原則下,當事人若僅是利用政府或爭訟程序作為有害市場競爭的工具,並無合法地尋求正面結果; 或該爭訟僅是純粹的假訴訟,以干擾正當商業關係或市場競爭時,無該原則免除競爭法相關責任的適用,亦即,仍須受到競爭法的檢視與求責可能。
[3] The 1984 Hatch-Waxman Act 旨在促進學名藥參進市場競爭、兼顧學名藥與原廠藥間的利益保護,並明定原廠藥與學名藥廠均有權利提起專利權合法爭訟(validity),以避免學名藥進入市場的受阻、也欲杜絕學名藥廠進行藥品侵權行為。
[4] 此指法庭意見書,乃為了釐清法律爭議或協助解釋法律等所提之文書,供參考用、不具強制法律效力,我國翻譯則稱法庭之友。
美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。
Facebook v.s. Lamebook商標嘲諷性使用之爭Facebook是全球最大的社交網站,而Lamebook則是於2009年4月創辦,專門供網路使用者上傳搞笑文章、照片或發表瘋狂評論的小型網站。今年三月開始,Facebook對Lamebook發出許多警告信(cease and desist letter),要求Lamebook停止使用Lamebook字眼作為商標,否則將對其提出商標侵權的訴訟。今年七月時,Facebook的律師寫信給Lamebook主張其侵權,信中並聲稱Lamebook作為商標的使用,並非屬於受法律保護的嘲諷性商標使用(parody use),因為Lamebook的網站並未針對Facebook給予任何批評或評論。 然而Lamebook則認為其網站是專門供網友上傳他們在最愛的社交網站上所看到的搞笑照片或近況動態,屬於嘲諷性商標使用。為了先聲奪人,Lamebook搶在Facebook提出商標侵權訴訟前,於11月4日向德州Austin聯邦法院提出請求確認Lamebook詞語的使用並未侵害Facebook的商標權。 在歷經幾個月的溝通及發送警告信皆未果的情況下,Facebook的律師11月9日於加州San Jose聯邦法院,向Lamebook提起商標侵權訴訟,並對外說明Lamebook網頁呈現方式、Logo皆和Facebook非常相似,他們相信Lamebook網站有不正當企圖假借Facebook的名譽和名氣,吸引更多使用者使用Lamebook網站,Facebook將會持續保護自己的品牌和商標。 針對Facebook提出的商標侵權訴訟,Lamebook則回應其和Facebook所提供的服務並不相同,其並未提供社交服務予使用者。此外,Lamebook認為網站僅是提供一個機會予使用者對於全球最盛行的社交網站進行嘲諷、評論,Lamebook詞語的使用是屬於嘲諷性商標使用,屬於美國憲法第一修正案(First Amendment)所保障的言論自由權利,是一種受保護的言論表達形式,並未侵害或淡化Facebook的商標權。 值得一提的是,Lamebook並非屬於第一個被Facebook警告有商標侵權疑義的網站,在Lamebook訴訟案之前,已陸續有幾個網站受到Facebook指控商標侵權。而最近也出現許多聲浪開始撻伐Facebook不該以巨人之姿,將”face”和”book”兩個通用詞語予以壟斷,完全禁止他人使用這兩個詞語。 究竟Lamebook小型網站最終是否可以嘲諷性使用為由,於商標侵權大戰中,戰勝目前全球最熱門社交網站Facebook,容我們拭目以待。
澳洲政府發布「國家 AI 計畫」 將採用科技中立的AI治理模式澳洲工業、科學及資源部(Department of Industry, Science and Resources)於2025年12月2日發布「國家AI計畫」(National AI Plan),擘劃了澳洲至2030年的AI發展藍圖,將「掌握機遇」、「普及效益」與「確保人民安全」列為三大發展方向。該計畫將透過基礎建設投資、人才培育、產業支持,以及強化監管能力等途徑,打造一個更具競爭力、包容性與安全性的 AI 生態系統。 國家AI計畫的另一個重點在於,澳洲政府打算透過現有的法律監管架構治理AI,而不另立AI專法。此舉是回應澳洲生產力委員會(Productivity Commission)於8月提出之建言:政府在推動創新與訂定規範時必須取得平衡,應暫緩推動「高風險 AI 的強制護欄(mandatory guardrails)」,僅有在現行制度無法處理AI衍生之危害時,才有必要考慮制定 AI 專法。 據此,國家AI計畫指出,面對AI可能造成的危害,現有制度已有辦法進行處理。例如面對使用AI產品或服務的爭議,可依循《消費者保護法》(Australian Consumer Law)取得權利保障;AI產品或服務的風險危害,亦可透過《線上安全法》(Online Safety Act 2021)授權,制定可強制執行的產業守則(enforceable industry codes)來應對。澳洲政府未來也將推動《隱私法》(Privacy Act 1988)修法,意欲在「保護個人資訊」與「允許資訊被使用及分享」之間取得適當平衡。 同時,由於採用分散式立法的關係,澳洲特別成立「AI 安全研究院」(Australian AI Safety Institute, AISI),以強化政府因應 AI 相關風險與危害的能力。AISI將協助政府部門內部進行監測、分析並共享資訊,使部門間能採取即時且一致的治理政策。 澳洲政府曾在2024年9月研議針對高風險AI進行專門的監管,但因擔心過度立法恐扼殺AI發展轉而採用「科技中立」的監管方式,以既有法律架構為基礎推動AI治理。此與歐盟的AI治理邏輯大相逕庭,未來是否會出現現行制度無法處理之AI危害,抑或採用現行法制並進行微調的方式即可因應,值得持續觀察。