本文為「經濟部產業技術司科技專案成果」
英國可算是對人類胚胎研究最積極的國家之一,目前其胚胎相關研究係根據「人類受精與胚胎學法」(Human Fertilisation and Embryology Act 1990,HF&E Act)及「人類受精與胚胎學規則」(Human Fertilisation and Embryology (Research Purposes) Regulations 2001,Research Purposes Regulations)之規定,並授權「人類受精與胚胎學管理局」(Human Fertilisation and Embryology Authority,HFEA)加以管理。 然面對胚胎研究日益多樣化,英國健康部於今(2007)年5月正式提出「人類組織與胚胎法草案」(Human Tissues and Embryos (Draft)Bill,以下簡稱草案),期能加強現有管理體系並促進相關技術之發展,而草案特別針對體外受精(in vitro fertilization)及胚胎研究之相關規定,作一徹底檢視及翻修。 進一步觀察,胚胎儲存、胚胎篩選、精卵捐贈及主管機關均屬草案規定範圍,另近來於英國國內討論熱烈的人類動物混合胚胎議題,亦於草案中有所規定,草案准許三種類型之人類動物混合胚胎得以被製造,分別是:將動物細胞注入至人類胚胎中、將動物DNA注入至人類胚胎中及將人類細胞核植入動物卵子中等。至於人類精卵與動物精卵之結合,則是被禁止之行為。 草案後續將送交國會專門委員會審查,但由於草案涉及極為爭議的人類動物混合胚胎議題,社會輿論的壓力及保守派議員會產生何種影響,值得持續關注。
美國第9巡迴上訴法院於2015年7月6日宣布Multi Time Machine v. Amazon案的見解美國第9巡迴上訴法院(9th Circuit)於2015年7月6日對外宣布Multi Time Machine v. Amazon案的見解,其推翻地方法院看法,認定被告Amazon公司提供的服務有侵害原告Multi Time Machine公司商標權之虞。 本案原告Multi Time Machine公司是一家製作手錶的廠商,在被告Amazon公司的網站上有提供零售服務。原告認為被告網站提供之服務,可使消費者搜索網站內的物品,但其所得之結果(含圖片)卻容易令人混淆,如搜尋原告的MTM手錶(為Multi Time Machine之商標),會將商標權人及其他廠商的商品都包含在內,導致消費者誤認為其他廠商手錶也是由MTM製造,進而購買非原告公司生產之手錶。原告因而向地方法院提出訴訟,認為被告Amazon公司侵害其商標權,違反聯邦法典內之Lanham Act的第1114條(1)(a)及第1125條(a)(1)規定。但洛杉磯地方法院認為被告行為並未侵害商標權,原告不服故提起上訴。 第9巡迴上訴法院採用1979年AMF v. Sleekcraft Boats案認定之方式,並於2011年Network Automation v. Advanced System Concepts案後發展出的測試標準,用以判斷有無侵害商標權。其標準包含:1.商標的強度、2.商品近似或相關連程度、3.與商標的相似性、4.實際混淆之證據、5.銷售管道、6.消費者在意程度、7.被告意圖、8.擴展之可能性。上訴法院認為,本案除了3、5、8三項較無關外,其餘5項因素經法院研究結果,原告商品在被告網站上販售時,1、2、7於原告影響較大,而4、6是被告提供服務(即供消費者購買)時須在意的。因此,綜合判斷之結果,被告行為已可能侵害原告之商標權,故推翻地方法院之判決結果,發回地方法院續行審理,本案後續判決進展及結果實值持續觀察。
問題在號碼?(下)---談網路電話服務(VoIP)號碼核配與網路互連管制問題 日本內閣府公布生成式AI初步意見彙整文件,提出風險因應、應用及開發兩大關注重點日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論: 一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。 AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。 二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。