歐盟執委會於2020年4月7日發起ERA vs CORONA行動計畫,透過歐洲研究區(European Research Area, ERA)全力支持歐洲科研合作、共享科學資訊,並給予歐洲研究團隊與企業充足的研發疫苗資金,用以對抗COVID-19。歐盟執委會已與各國達成共識,確認ERA vs CORONA行動計畫的10項優先行動:
本文為「經濟部產業技術司科技專案成果」
經歷十天的談判,巴西政府與美國製藥廠商 Abbott Laboratories終於達成專利協定。在此之前,巴西政府表示將開始製造一種主要抗HIV/AIDS藥物,Kaletra,的學名藥。此舉也造成製藥商的壓力,使其同意在今後六年降低Kaletra的價格,以維持該藥物在巴西的專利權,巴西也將得到Kaletra的下ㄧ代新配方。 巴西目前每年需給付約1.07億美金(約34億台幣)購買Kaletra,並免費提供給國內病患。 Abbort Laboratories 同意在不提高整體費用的前提下治療更多病患,為巴西節省超過2.5億美金。製藥商表示巴西是非洲之外取得最多價格讓步的國家。另外,若此藥物的專利權被破壞,製藥公司也將不敢投資進一步的研究。 此談判受到許多開發中國家的關注,在這些國家約有 3600 萬人感染 HIV 病毒。巴西政府在最後一刻改變心意,同意不破壞專利權的舉動,必定會激怒許多 HIV 遊說團體。這些團體一再敦促巴西政府破壞 Kaletra 之專利權。他們認為,根據世界貿易組織法則( World Trade Organization rules ),破壞該藥物專利權是合法的,並且有助於降低全世界抗逆轉濾過性病毒藥物的價格。
Google關鍵字廣告在美國贏得重要勝利美國聯邦法院近日判決Google販售含Rosetta Stone的關鍵字廣告,並不會造成Rosetta Stone商標的混淆而構成侵權,同時也沒有商標淡化、輔助侵權以及侵權的連帶責任等問題。 在Rosetta Stone與Google一案(Case No. 09cv736, E.D. Va., 8/3/10)的判決中,法院並未再著墨於過去十年來爭論不休的關鍵字廣告販售是否構成商標使用的問題;在本案中,法院假定Google的行為構成潛在可訴的商標使用,在沒有事實爭議的情況下做出對Google有利的即決審判(summary judgment)。判決中認定Google販售Rosetta Stone關鍵字廣告給第三人,並不會對Rosetta Stone的商品來源造成混淆,法院認為Google的使用者可以分辨實際的搜尋結果,以及廣告主的贊助廣告連結。 法院也認定Google對於Rosetta Stone商標的使用受到功能性原則的保護。在本案中法院認為Google的關鍵字扮演著必要的指示功能,並影響廣告的成本與品質。如果沒有這樣的功能,Google將必須為希望鎖定在目標客戶的廣告主創造一個沒效率的搜尋系統。 而過去6個月近200個案例中,Google都在接到Rosetta Stone的通知後,將相關訊息移除,因此,法院援引近期Tiffany 與eBay一案(600 F.3d 93, 2d Cir. 2010),認為Google對於贗品販售者購買關鍵字廣告的一般性認知,尚不足以構成輔助侵權的主觀認知要件。 另外,法院認為僅僅廣告購買的交易關係,並不足以讓Google與贗品之間建立起侵權的連帶責任,就像時代廣場的廣告看板租用一樣,沒有證據顯示提供廣告空間的Google掌控這些贊助廣告的外觀與內容;而在2004年Google開始開放以商標作為關鍵字廣告之後,Rosetta Stone的聲譽持續成長,法院表示無法證明Rosetta Stone的商標因為Google關鍵字廣告販售而淡化。 本案的判決可能終止長久以來對於以商標作為搜尋引擎關鍵字的爭議,儘管商標權人在Rescuecom與Google一案(562 F.3d 123, 2d Cir. 2009)中確認了這樣的行為構成了可訟的商標使用行為,但這樣的行為是否構成侵權仍有待進一步的檢驗,而近五年來Google的關鍵字廣告販售已經變成普遍的商業型態,而Google使用者也越來越習慣分辨一般搜尋結果與贊助廣告的差異,因此,對於這樣的行為要被認定為有混淆誤認之餘而構成侵權,商標權人在美國恐怕還有一段辛苦的路要走。
強化政府橫向協調,提升AI治理—澳洲擬於2026年初設立AI安全研究所澳洲政府於2025年11月25日宣布,將於2026年初設立AI安全研究所(AI Safety Institute)。澳洲AI安全研究所的設立目標,為提供相關的專業能力,以監管、測試與共享AI在技術、風險、危害層面的資訊。經由辨識潛在的風險,提供澳洲政府與人民必要的保護。AI安全研究所將以既有之法律與監管框架為基礎,因應AI風險,協助政府各部門調整相關規範。其主要業務如下: .協助政府掌握AI技術的發展趨勢,動態應對新興的風險與危害; .強化政府對先進AI技術發展及潛在影響的理解; .共享AI資訊與作為協調政府各部門的樞紐; .經由國家AI中心(National AI Centre,NAIC)等管道,提供事業、政府、公眾與AI相關的機會、風險和安全的指導; .協助澳洲履行國際AI安全協議的承諾。 AI安全研究所並為2025年12月2日,工業、科學與資源部(Department of Industry, Science and Resources)發布的國家AI計畫(National AI Plan,下稱澳洲AI計畫)中,保障應用AI安全性的關鍵項目。澳洲AI計畫指出,AI安全研究所將關注AI的上游風險(upstream AI risks),與下游危害(downstream AI harms)。所稱之上游風險,係指AI模型和系統的建構、訓練方式,與AI本身的能力,可能產生的疑慮。下游危害,則係指使用AI系統時,可能的實質影響。 AI安全研究所將支援與國際、政府各部門間之合作;並共享新興的AI技術能力,以及對AI上游風險的見解,發布安全研究成果,提供產業與學術界參考。AI安全研究所監測、分析與共享資訊,提出政府各部門,對AI下游危害,可採取的一致性應對建議。 綜上所述,澳洲政府提出國家AI計畫,於既有的法制體系,滾動調整相關規範,以應對AI風險。並成立AI安全研究所,追蹤國際AI發展脈動,及時提供澳洲政府應對建議,協調各部門採取一致性的行動。澳洲政府對新興AI技術,所採取策略的具體成效,仍有待觀察。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。