韓國首例 逮捕非法卵子掮客

  韓國警方在新頒布的 「生命倫理及安全法」 正式實施後,第一次 逮捕 一名涉嫌非法出售人類卵子的金姓男子,卵子的來源乃是該名男子利用積欠其高額債務的女子出售所得的。


  警方在搜查了首爾地區的四家醫院後,起訴了涉嫌出售卵子的兩名大學生和一位主婦,並調查其他涉嫌利用網路從事掮客生意,將韓國女性的卵子出售給國內外
不孕夫妻 調查顯示,非法大型網站買賣女性卵子現象在韓國正日益猖獗,提供卵子的女性絕大多數都是因經濟困難


  「生命倫理及安全法」於今年
1 1 日開始施行,該法律除了禁止買賣卵子和雇用代理母外,也是韓國作為禁止複製人類之法律依據。

相關連結
※ 韓國首例 逮捕非法卵子掮客, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=426&no=57&tp=1 (最後瀏覽日:2026/01/12)
引註此篇文章
你可能還會想看
日本網路購物標價錯誤判決與臺、日實務差異之研究

運動品牌Puma成功撤銷波蘭Sinda Poland鞋廠的歐洲共同體近似商標申請

  歐盟普通法院(The General Court of the European Union)於今年(2016)2月25日針對運動品牌Puma SE(以下簡稱Puma)提出之商標異議做出了判決。本判決認為,Puma所擁有的美洲獅商標(詳參圖1、圖2),與其異議之波蘭鞋廠Sinda Poland Corporation sp.(以下簡稱Sinda Poland)(詳參圖3)申請中的商標確有相似。此判決翻轉了歐盟內部市場協調局(Office for Harmonization in the Internal Market,以下簡稱OHIM) 所作出兩商標不近似之決議。本判決中,歐盟普通法院判決認為,OHIM應撤銷Sinda Poland之商標申請,並命令Sinda Poland及OHIM支付Puma相關訴訟費用。   本爭議起始於2012年,波蘭鞋廠Sinda Poland申請一歐洲共同體商標(Community Trade Mark,簡稱CTM),該商標為一跳躍的貓科動物形狀(詳參圖3),並指定使用於鞋類及運動鞋類產品。OHIM於2012年9月公告Sinda Poland申請的商標,同年11月Puma向OHIM提起異議,表示Sinda Poland之商標(詳參圖3)與Puma之美洲獅商標(詳參圖1、圖2)過於近似,有令消費者混淆商品或服務來源之虞。然而,OHIM於2014年決議認為,Sinda Poland之商標係兩種跳躍動物之結合,形成獨特的動物圖案設計,與Puma之美洲獅商標不相似,應不具有混淆消費者的疑慮。   Puma向歐盟普通法院上訴,認為法院應撤銷Sinda Poland之商標申請,並要求Sinda Poland支付相關訴訟費用。歐盟普通法院於今年2月25日做出決議,認為Sinda Poland侵害了Puma之商標權,並指出OHIM未將系爭兩商標在視覺上及概念上之整體相似度列入考量。該法院認為「Puma與Sinda Poland之商標皆為黑色的動物剪影,兩商標之動物背部及腹部弧度雖有所不同,但兩商標無法否認地有相似之處。」   經過為期將近四年的爭訟,Puma成功撤銷了Sinda Poland近似商標之申請。對國際知名運動品牌如Puma而言,近似商標的存在將會造成品牌知名度及商譽的打擊。如何藉由排除近似商標之申請以鞏固品牌形象及消費者認同,對品牌企業而言是必須面對的重要課題。本案中,Sinda Poland之近似商標仍在申請階段時Puma即提起異議。Puma積極的維權行動,是品牌廠商能夠藉以參照的模範。 圖1 Puma跳躍美洲獅商標(註冊於尼斯分類第1-42類)(圖片來源:歐盟普通法院判決) 圖2 Puma跳躍美洲獅商標(註冊於尼斯分類第18、25、28類)(圖片來源:歐盟普通法院判決) 圖3 Sinda Poland欲申請之商標(註冊於尼斯分類第25類) (圖片來源:歐盟普通法院判決) 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」

歐盟發佈「降低高速電子通訊網路建置成本」草案

歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。   該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

TOP