面對科學界越來越無法抵擋的複製人浪潮,聯合國二月十八日召開一項特別會議,並表決通過聲明,呼籲各國政府禁止各種形式的複製人研究,包括用於研究人類幹細胞的技術等。不過項聲明並不具強制力。
聯合國法律委員會是以七十一票贊成,三十五票反對,四十三票棄權下,通過這項由宏都拉斯和美國布希政府提出的支持禁止複製人的聲明,委員會通過後交給聯合國大會,由一百九十一個會員國成員最後決定。回教國家已經表明,聯合國大會表決時將棄權,因為聯合國內部並無法達成共識﹔而目前各自有人類幹細胞研究的英國,比利時和新加坡都反對這項聲明,並稱聲明內容不會影響他們的「醫療性幹細胞研究」。
會中支持和反對陣營的最主要爭議核心,在於醫療性複製人類的研究,這類研究必須複製人類胚胎取得幹細胞,實驗結束後銷毀。支持這項研究技術的科學家認為,人類幹細胞研究為許多至今仍無法治療的疾病帶來新希望,例如阿茲海默症,各種癌症,糖尿病和脊椎傷害患者,影響約一億人﹔但是如美國,加拿大等反對國家則認為,這種研究不論是哪一種目的,都是在剝奪利用一個人的生命。聯合國成員在二○○一年起討論制定一項具約束力的全球性公約,禁止複製人,不過各國歧見擴大,一直無法達成共識。義大利因此提議制定不具強制力的宣言,呼籲各國各自立法「禁止任何透過複製程序產生人類生命的企圖,以及任何意圖達成此一目的的研究。」不過,宏都拉斯將此建議擴大,提議聯合國聲明「禁止所有形式的複製人行為。」
本文為「經濟部產業技術司科技專案成果」
為杜絕網路盜版行為,美國AT&T、Verizon、Cablevision、Time Warner Cable及Comcast等主要網路服務提供者共同推動著作權警告系統(Copyright Alert System, CAS),亦稱為Six Strikes系統。該系統可用在舉發透過P2P違法下載音樂、電影、電視節目盜版的網路使用者,而舉發盜版者之業務係委由MarkMonitor公司執行。 但最近MarkMonitor公司在執行舉發著作權侵權嫌疑者的業務過程中,卻發生誤認某一著作權人的合法網站為侵權網站,並通報Google要求刪除的烏龍事件。2013年2月3日MarkMonitor公司代替HBO公司在Google上檢索確認有侵害「Eastbound and Down」節目著作權的可疑網站,並且要求Google根據DMCA規定發出刪除通知。但是,MarkMonitor公司在舉發侵權過程中,除搜尋到著作權侵權網站的URL網址,甚至連HBO營運的8個官方網站和其它針對「Eastbound and Down」節目內容討論的網站如Perez Hilton、Hitfix,以及單純刊登新聞社論的網站等合法網站,均接受到DMCA的刪除通知。此一事件發生後,不僅讓被誤認的合法網站和HBO所屬網站的合法著作流通遭受損害,同時也讓各界質疑MarkMonitor公司的DtecNet軟體自動舉發盜版的成效,亦質疑在沒有其它監督機構的情況下,MarkMonitor公司的系統仍有可能發生誤判的情形。 雖著作權資訊中心(Center for Copyright Information, CCI)獨立顧問Stroz Friedberg表示DtecNet軟體準確性及穩定性應無問題,但是外界認為Stroz曾是美國唱片協會(RIAA)的國會遊說者(lobbyist),亦是著作權警告系統的創立成員之一,其說法公正性令人存疑。再者,若無第2個獨立機構監督MarkMonitor的系統運作,將來正式利用此一軟體舉發Bittorrent使用者時,合法網路使用者難以避免地有被誤認為侵權者之虞。因此,未來該系統運作成效及發展情況仍有待繼續關注。
美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。
論數位環境下個人資料保護法制之發展與難題-以「 數位足跡」之評價為核心