複製人類在歐美之法制規範

刊登期別
1998年09月
 

※ 複製人類在歐美之法制規範, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=798&no=57&tp=1 (最後瀏覽日:2025/11/21)
引註此篇文章
你可能還會想看
南韓司法單位擬懲處黃禹錫等四人

  去(2005)年11月,全球幹細胞研究先驅-韓國首爾大學黃禹錫(Hwang Woo-suk)教授承認其研究有國際醫學倫理瑕疵,引發軒然大波。其後,相關的醜聞頻傳,黃教授更被控研究造假,使得原本以前瞻之胚胎幹細胞研究技術(即體細胞核轉置技術”somatic cell nuclear transfer”)獨步全球的韓國科學界,研究信譽遭受嚴重打擊。   偵辦「黃禹錫科研論文造假醜聞案」的南韓檢察當局,經連日傳訊相關人員後,正考慮對黃禹錫等四人採取司法懲處。 對於被查出不法獲得並使用科研用卵子的黃禹錫,檢方考慮依據違反「生命倫理及安全之法律」等條文予以懲處。   據指出,檢方在調查中,掌握了2004年及2005年刊登在「科學」雜誌上的科研論文,黃禹錫等人捏造體細胞複製幹細胞,和為病患複製培育胚胎幹細胞的科研數據,矇騙了整個科學界。調查顯示,黃禹錫去年十一月檢驗幹細胞的遺傳基因(DNA)指紋之前,似乎真的不曉得根本就不存在為病患量身打造複製培育胚胎幹細胞的事實。但檢方卻證實黃禹錫確實指示屬下研究員,將部分照片等科研數據和資料,自我膨脹等造假的事實。   由於生醫研究給許多病患帶來新的治療希望,因此其通常會以實際行動(即自願捐贈研究用檢體、協助經費募集等)表達支持。惟研究瑕疵或造假則會讓病患及一般民眾認為遭受欺騙,進而影響其未來捐贈檢體或以受試者身份參與生醫研究之意願。可見生醫倫理並不僅是道德呼籲,也是生醫研究能否順利進行、生醫研究能否生根發芽的重要基石。 黃禹錫案之相關報導可參見 The Economists, December 3 rd 2005, p. 71; The Economist, December 24 th 2005, p. 109-110

英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理

  英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議: (一)關於人工智慧及應用界定與發展   人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。 (二)未來對社會及政府利益及衝擊   人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。   目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。   在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。 (三)關於相關道德及法律風險管理課題   人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考: (1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。 (2)調適由人工智慧作決策行為時的歸責概念和機制。   有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。   針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。   人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。

何謂「國家科學技術發展計畫」?

  「國家科學技術發展計畫」為政府考量國家發展方向、社會需求情形以及區域均衡發展,而擬定之國家科學技術政策與推動科學技術研究發展之依據。依照《科學技術基本法》第10條之規定,國家科學技術發展計畫之訂定,應參酌中央研究院、科學技術研究部門、產業部門及相關社會團體之意見,並經全國科學技術會議討論後,由行政院核定。   全國科學技術會議每四年召開一次,最近一次會議為2013年的「第九次全國科技會議」,該次會議通過了民國102-105年的「國家科學技術發展計畫」,針對我國科技發展提出7項目標、27項策略及58項重要措施。7項目標包括:提升臺灣的學研地位、做好臺灣的智財布局、推動臺灣永續發展、銜接上游學研與下游產業、推動由上而下的科技計畫、提升臺灣科技產業創新動能、解決臺灣的科技人才危機等。

日本將數位廣告業者列入特定數位平台之透明性及公正性提升法適用對象

  日本於2022年7月5日閣議決定修正政令將數位廣告(デジタル広告)的大型數位平台(デジタルプラットフォーム)業者列入「特定數位平台之透明性及公正性提升法」(特定デジタルプラットフォームの透明性及び公正性の向上に関する法律)適用對象,修正政令於2022年7月8日正式公布,並預計自2022年8月1日開始施行。   日本於2020年5月27日通過特定數位平台之透明性及公正性提升法(以下簡稱本法),要求特定數位平台業者公開提供服務條件,主動積極採取因應措施並進行自我評估,以提升特定數位平台透明性與公正性,促進國民經濟健全發展。隨著數位平台重要度與日俱增,數位廣告的數位平台企業影響力亦逐漸擴大,甚至將對媒體事業收益結構帶來重大改變。日本於2021年6月18日閣議決定「2021經濟財政營運及改革基本方針」(経済財政運営と改革の基本方針2021)與「成長戰略實行計畫」(成長戦略実行計画),均提出須關注數位市場競爭環境,因應新時代統整數位廣告市場規則,將數位廣告的大型數位平台業者列入本法適用對象,整合數位平台透明性與公平性規則。   本次修正政令列入本法適用對象的數位廣告業者包含:一、日本國內營業額在1000億日圓以上的媒體整合型廣告數位平台。二、日本國內營業額在500億日圓以上的廣告仲介型數位平台。日本期望能藉由統整數位廣告市場規則,解決數位廣告市場的垂直整合問題,同時強化消費者隱私保護。

TOP