2011年1月Microsoft針對Apple欲將App Store申請作為商標一案,向美國專利商標局(USPTO)提出即決判決(summary judgment)之申請,請求USPTO拒絕允許App Store註冊為商標。Microsoft主張「App Store」一詞係由「形容產品的普通名詞」加上「形容店面的普通名詞」而組成的詞彙,屬於普通性字眼(generic terms),如同「Computer Store」一詞之前也被認定為屬於普通性詞彙,不得註冊為商標。此外,Microsoft還主張App Store這個詞語已經被許多同業、新聞媒體、消費者甚至Apple本身,作為普通性詞彙加以廣泛使用,例如黑苺公司使用App World、三星公司使用Samsung App、惠普公司使用App Catalog來形容自家的應用程式專賣店。因此,App Store不應被註冊為商標,否則將造成他人無法正常使用此普通性詞彙。
另一方面,Apple於2011年3月向美國專利商標局提出說明,反駁Microsoft的指控,Apple並舉The Paper Store、The Container Store等商標法先例,說明這些名詞最後皆被認定為具有爭議性之「描述性詞彙(descriptive terms) 」,而得以註冊登記為商標。Apple進一步認為Microsoft聘請的專家所提出可證明「App Store」一詞為普通性詞彙的相關證據,其取樣係有問題。因其是以app store小寫字樣為關鍵字,並輸入在Westlaw資料庫中進行查詢,而這樣的採樣方式,當然會導向app store一詞的使用情境偏向於普通性詞彙使用(generic use)。另外,Apple也以Microsoft十多年來大眾對其WINDOWS商標屬於普通性詞彙之爭議及指控為例,認為在衡量系爭詞彙是否屬於普通性名詞而無法作為商標使用的判斷上,須就系爭詞彙整體觀之,透過蒐集大量事實以評估系爭詞彙對相關大眾(relevant public)之主要意義(primary significance)為何。例如相關大眾就app store此詞彙的主要認知是聯想到「Apple」所經營的線上應用程式專賣商店,抑或相關大眾看到app store一詞直接想到其意指一般應用程式商店。
在雙方激烈唇槍舌戰中,究竟這場App Store商標申請准駁戰,會由Apple還是Microsoft取得勝利?容我們拭目以待。
作為鄉村音樂發源地的美國田納西州,有著蓬勃的音樂產業,匯聚來自各路的表演藝術工作者,因而對相關從業者的個人公開權(Right of Publicity)保障尤為重視,早在1984年即制訂《個人權利保護法》(Personal Rights Protection Act),確保該權利不會因權利人死亡而消滅,屬於可由他人繼承之財產權,允許繼承人自由轉讓和授權,包含其姓名(Name)、肖像(Image)、形象(Likeness)之權利主張,但被繼承人之聲音仍不在權利主張的範疇。 惟現今AI深偽仿聲技術所生成之音樂亦可能侵害音樂人及藝術家的智慧財產權,因而於2024年3月21日由州長簽署《確保肖像、聲音和圖像安全法案》(Ensuring Likeness Voice and Image Security Act),簡稱貓王法案(ELVIS Act),該法案於3月7日獲得州議會兩黨一致支持,首度明確將個人公開權得主張之範圍擴及至表演者的聲音(NIL+V),其目的是為了應對AI生成音樂的突破性進展,以保護音樂創作人及表演藝術家之權利免受AI技術侵害,這是全美首部禁止他人未經授權使用或重製權利人的聲音以供訓練AI模型或生成深偽內容所制定的法律(註:加州雖已將聲音作為權利保護客體但非針對AI技術之侵害),明確規定第三人在未得本人之同意下,若意圖利用AI深偽技術生成經仿製、偽造或變造的圖片、影音、聲音等數位檔案,而後續冒用本人名義進行公開發表或公開演出詞曲創作人及表演藝術工作者之聲音或影像的行為,則須承擔相應的民事侵權行為責任,以及構成歸類在微罪的刑事犯罪,刑期最高可處11個月又29天的監禁或2,500美元以下的罰金,該法案預計於今年7月1日生效,且僅適用於在田納西州境內的工作者。 該法案所保護之主體除音樂創作人及表演藝術家外,亦包含動畫配音員及串流媒體盛行下廣播與網路節目的播音員(俗稱播客),以確保這類主要仰賴聲音維生的工作者能免於AI仿聲技術而減損其專業價值;另外若有與詞曲創作人或表演藝術工作者締結專屬合約之唱片公司或經紀公司亦為訴訟程序的適格當事人,可代理公司旗下的工作者尋求救濟管道;最後,若利用權利人的姓名(Name)、肖像(Image)、形象(Likeness)或聲音(Voice)屬於法案中列舉的合理使用行為,如基於公益目的、新聞播報、轉化性使用、偶然入鏡或著作之附帶性利用等,則應屬美國憲法第一修正案之保障範圍而非在該法案的規範射程。 除田納西州之外,美國尚有其他39個州提出或正在推動相似的法案,但全美目前仍欠缺統一性的立法;聯邦政府仍尚在研擬如何保護表演藝術工作者個人公開權的階段,日前在田納西州政府今年1月時提出貓王法案的草案後不久,由美國眾議院議員組成的跨黨派小組曾公佈《禁止人工智慧偽造和未經授權的重製法案》(或稱為《禁止人工智慧詐欺法案》),旨在推動建立聯邦層級的框架性立法,以確保個人的聲音或肖像權屬美國憲法第一修正案的保障範圍,而該提案據稱是針對美國參議院去年10月提出的《鼓勵原創、培育藝術和維繫安全娛樂法案》(或稱為《禁止仿冒法案》)的更新及補充,以維護公共利益,創造具有原創性、正當性及安全性的休閒娛樂環境。
歐盟執委會提出醫藥品管理整體配套方案,保障歐盟境內大眾用藥安全為確保歐洲民眾於健康醫療方面之利益,歐洲製藥工業協會聯合會(European Federal Pharnaceutical Industrial Association;簡稱EFPIA)於2009年2月17日,向歐洲議會(European Parliament)提出建議,並敦促其應儘速通過歐盟執委會(European Commission)於去年年底所提出一項關於醫藥品安全、創新與易近用性之議案。而一位業界代表Günter Verheugen於當(17)日會面後指出:「此次會面,主要是希望能就新近執委會所提交之醫藥品管理整體配套方案(Pharmaceutical Package),進行初步意見之交換與討論」。 由於保障歐盟境內民眾之健康安全,實乃歐盟決策者(Decision-makers)所應掮負之重要責任,故EFPIA總幹事Brian Ager於此次會面交流之前,亦曾高聲向歐洲議會與各會員國家呼籲,應優先將病患安全(Patient Safety)議題納入考量,並採取果斷之行動;同時,其也指明,歐洲醫藥各界為尋求各種可能落實之方法,先前早已經歷過各個階段,並遲延了決策做成之時機;故,此次會面,除要為執委會提案之審查,奠定啟動之基外,亦盼能再次集聚並挹注歐洲醫藥各界之能量,於保護歐洲人民健康安全相關之行動當中。 關於歐盟執委會於去(2008)年底所提出之議案,由於其中有多項內容對歐洲醫藥各界之影響實廣且深;因此,該項提案目前業已廣泛地受到EFPIA與業者之重視。此外,就此項醫藥品管理整體配套方案中擬採行之具體立法規範措施,實包含如後3個面向:首先,是欲透過規範擬提昇藥物警戒(Pharmacovigilance)方法之現代化;其次,強化管制規範以減少假藥滲入歐洲整體醫藥品供應鏈之機會;最後,則是要要提供高品質之健康與醫藥品相關資訊給有需要之病患或大眾近用(Access)等。 由此可知,未來歐盟整體醫藥品管理立法方向,將分由3個不同之角度出發;並同時朝「改善歐洲大眾用藥安全」之目標前進;不過,在進一步進行條文化之前,前述由執委會所提出之醫藥品管理整體配套方案,將會先交由歐洲議會與歐盟理事會官員共同進行初步之討論。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
巴西基因改造科技管理法制簡介