複製人類在歐美之法制規範

刊登期別
1998年09月
 

※ 複製人類在歐美之法制規範, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=798&no=55&tp=1 (最後瀏覽日:2025/12/06)
引註此篇文章
你可能還會想看
歐盟執委會提議檢討WEEE法令規範,並修正回收目標

  歐盟執委會於所公告之電子電機廢棄物回收法令檢視報告(Review of an EU Directive on Recycling Waste Electrical and Electronic Equipment)中建議,對於產品製造商之回收目標規範標準,應從現行概括固定值:每年人均4kg(4kg/capita per year)回收目標,改為變動式比例值:以現行市場商品平均量之65%,作為規範目標並且,由於法令規範課予產品製造商強制回收責任,市場實務上,也出現了產品製造商為了達到WEEE要求規範目標值,轉而向民間回收業者收購「回收憑證(Recycling Certificates)」,並且,因為供需失衡問題,造成回收業者隨意喊價的情形,也多所見聞。     而歐盟執委會為進一步落實環境保護政策,還是打算維持原案,提議對於WEEE規範內容進行檢討修改,並建議各會員國於國內法令增加誘因及鼓勵措施,導引協助產品製造商擴大回收體系、檢視改善回收管理系統,而更具能力對於提高目標規範,能夠落實遵循之。歐盟執委會此項法令修改提議,是否得以真正落實未來立法中,值得再加以觀察。

OFCOM將重新檢討商業廣播電視節目贊助規定

  英國廣播電視主管機關OFCOM於今年十月下旬公布,其將修酌廣播電視規則(Broadcasting Code),放寬商業廣播電視節目/頻道贊助規定。   現行的廣播電視規則禁止特定類型的節目接受贊助,例如新聞和時事節目不得接受贊助,也禁止特定種類之商品或服務廠商贊助特定節目,例如禁止酒商贊助兒童節目。   OFCOM表示將修酌現行規定,放寬節目/頻道贊助之規定,惟在兼顧節目編輯權以及兒童閱聽人之收視權益的考量下,將訂定相關的節目/頻道贊助限制,包括     1.必須使閱聽人知道節目有接受贊助,贊助廠商之資訊必須與節目和廣告內容所有區隔。     2.頻道贊助廠商之資訊不得出現於禁止接受贊助之節目內容中或播放時間之前、後。     3.贊助廠商資訊之呈現不得過於明顯。     4.節目頻道不得以贊助廠商之名稱命名。

日本內閣官房提出未來投資戰略報告加速機器人實用及活化

  日本內閣官房日本經濟再生總合事務局(内閣官房日本経済再生総合事務局)在2017年6月9日第10次「未來投資會議」中提出未來投資戰略2017報告(未来投資戦略2017~Society 5.0 の実現に向けた改革~),在成長的戰略成果(5)日本第四次產業革命及新經濟的展開中,分別對於機器人實用、物聯網(IOT)、大數據(BIG DATA)、人工智慧(AI)等提出成果及未來計畫。   機器人加速實用化:首先,機器人廣泛利用在商業設施、機場等日常生活空間,於2016年9月羽田機場設置機器人實驗室「Haneda Robotics Lab」,利用機器人改善服務並補充勞動力。有關打掃清潔、協助移動、查詢服務等17種機器人,將進行實證實驗。而路面協助行走型機器人「RT.1」已經完成,於2015年生活協助型機器人之安全性得到國際認證,其後發展之「RT.2」將使用於長期照顧層面。其次,開發農業使用之自動駕駛拖車,並提供工作實際狀況和土壤狀況之電子管理服務。今年6月開始商業化之自動駕駛顯示器,可以監控自動駕駛耕作機器進行自動耕作等。在物流管理方面,於2018年將於山間部等地區進行無人機的包裹遞送,2020年將在都會區全面無人包裹遞送。預計將與日立等相關公司,進行物流管理系統之開發及活用福島機器人測試場域。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

TOP