Horizon Europe為歐盟2021-2027年之科技研發架構計畫。科技研發架構計畫(Framework Programmes for Research and Technological Development,依不同期別縮寫為FP1-FP8)為全球最大型的多年期科研架構計畫,今期之Horizon 2020已進入尾聲,2021年起所實施的歐盟科研架構計畫──FP9正式命名為「Horizon Europe」。
為打造歐盟成為創新市場先鋒,延續Horizon 2020計畫成效,Horizon Europe重視投資研發與發展創新,包含強化歐盟的科學與技術基礎、促進歐洲創新能力,以及永續歐洲社會經濟的模式與價值。
Horizon Europe發展方向分為三大主軸,分別為:
此外,Horizon Europe擬把實驗階段中具備高潛力和前瞻性的技術帶入市場,轉以任務導向協助新創產業設立,推動跨事業多方整合。
本文為「經濟部產業技術司科技專案成果」
由於仿冒業者在知名的網路拍賣平台eBay上販售標有” TIFFANY & Co”的商品,eBay於2004年起被珠寶商TIFFANY & Co.(以下簡稱TIFFANY)控告侵犯商標權,且該廣告構成錯誤虛假廣告(False advertising)。位於紐約的第二上訴巡迴法院於今年4月1日作出判決,認為eBay不構成商標權的侵害,但可能該當錯誤虛假廣告之行為。 關於是否構成侵害商標權之判斷,考量eBay本身為網路拍賣平台提供者,並非實際將商品上架之人,並且年花數百萬美元處理平台上的銷售仿冒品行為,故第二上訴巡迴法院認定eBay並未侵害TIFFANY的商標權。 這個判決結果對於類似eBay的網路平台業者而言,無非是個喜訊,但在是否構成錯誤虛偽廣告,上訴法院作出與第一審法院不同之見解。 在此案件中,第一審法院認為該廣告頁面文字並不會使消費者產生誤認之虞,但第二上訴巡迴法院則持相反見解,認為除非eBay在網頁上註明警告字句,提醒消費者賣家所售商品可能是仿冒品,eBay才有可能免除責任,否則,eBay應該對其平台上出現可能導致消費者混淆誤認的文字負責。由於TIFFANY在判決後宣稱要上訴,因此該錯誤虛假廣告認定之爭議,仍有待最高法院之判斷。 不過,第二上訴巡迴法院亦在判決中強調,eBay已善盡相當的努力來打擊仿冒品。每年花費將近兩千萬美元防止網站上詐欺,並且設立買家保護機制,更要求員工應特別關注反侵權方面的議題。eBay隨後發表聲明,認為此判決結果對於打擊仿冒品將有莫大助益,而其將繼續以合作代替訴訟。
聯邦貿易委員會公布授權學名藥報告,並展開調查及處罰裁決美國聯邦貿易委員會(Federal Trade Commission,FTC)鑒於近期授權學名藥(Authorized Generic,指由原專利藥廠於專利到期後自行或授權所推出之學名藥)上市申請頻率遽增,且授權學名藥專利和解協議日多之現況,自今(2009)年起,即積極展開一系列調查行動,先後於3月首度對授權學名藥和解協議案件祭出處罰裁決,並於6月公佈一份有關授權學名藥報告(Authorized Generic: An Interim Report)。 在美國授權學名藥法規(即Hatch-Waxman Act)架構下,首次提出簡易新藥審查申請取得學名藥上市許可之第一申請者(first-filer),得享有180日之市場專屬保護期間,除授權學名藥外,保護期間內其他藥廠一概不得推出相仿學名藥。 美國學名藥市場專屬保護期間之設計,原是希望藉此加速學名藥研發與上市,達到降低藥品取得價格之效,但根據FTC調查顯示,由於授權學名藥在市場專屬保護期間內依法得進入市場,於受到授權學名藥介入競爭之壓力下,第一申請者學名藥零售價格會比原先下降4.2%,經銷價格會下降6.5%,並減少該第一申請者藥廠47-51%的收入。在此背景下,越來越多第一申請者藥廠傾向採擬與原專利品牌藥廠達成延遲學名藥上市協議之策略,藉此互為其利。根據FTC統計,2004-2008年間約有25%的專利和解案件涉及授權學名藥條款,76%的對造為第一申請者學名藥藥廠,其中有25%的和解,是由授權學名藥藥廠與第一申請者藥廠就於一定期間(平均約為34.7月)不進入市場互為承諾。 FTC目前唯一的監管機制,係依據醫療照護現代化法(The Medicare Prescription Drug, Improvement, and Modernization Act of 2003,MMA),要求專利藥廠若與學名藥廠做成任何專利訴訟和解協議或相關協議時,應於協議生效10日內向FTC通報,以供FTC決定是否展開反競爭調查。FTC對於此類協議之審查上,終於今年3月有所進展,宣布必治妥(Bristol-Myers Squibb,BMS)應就其與Apotex公司間所達成專利訴訟和解協議繳交210萬美元。
澳洲於9月初生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government)2024年9月1日,澳洲生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government,下稱政策)。澳洲數位轉型局(Digital Transformation Agency,以下稱DTA)提出此政策,旨於透過提升透明度、風險評估,增進人民對政府應用AI的信任。 1. AI之定義 此政策採經濟合作暨發展組織(OECD)之定義:AI系統是一種基於機器設備,從系統接收的資訊進而產出預測、建議、決策內容。 2.適用範圍 (1)此政策適用於「所有非企業的聯邦個體(non-Corporate Commonwealth entities, NCE)」,非企業的聯邦個體指在法律、財務上為聯邦政府的一部分,且須向議會負責。此政策亦鼓勵「企業的聯邦實體」適用此政策。 (2)依據2018年國家情報辦公室法(Office of National Intelligence Act 2018)第4條所規定之國家情報體系(national intelligence community, NIC)可以排除適用此政策。 3.適用此政策之機構,須滿足下列2要件 (1)公布透明度聲明 各機構應在政策生效日起的6個月內(即2025年2月28日前)公開發布透明度聲明,概述其應用AI的方式。 (2)提交權責人員(accountable official,下稱AO)名單 各機構應在政策生效日起90天內(即2024年11月30日前)將AO名單提供給DTA。 所謂AO的職責範圍,主要分為: I.AO應制定、調整其機構採取之AI治理機制,並定期審查、控管落實情況,並向DTA回報;鼓勵為所有員工執行AI基礎知識教育訓練,並依業務範圍進行額外培訓,例如:負責採購、開發、訓練及部署AI系統的人員,使機構內的利害關係人知道政策的影響。 II.當既有AI 應用案例被機構評估為高風險AI應用案例時,通知DTA該機構所認定之高風險AI應用案例,資訊應包括:AI的類型;預期的AI應用;該機構得出「高風險」評估的原因;任何敏感性資訊(any sensitivities)。 III.擔任機構內協調AI的聯絡窗口 IV.AO應參與或指派代表參與AI議題之政策一體性會議(whole-of-government forums)。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。 包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。 在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。 綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。