基改動物的技術研發腳步雖不如植物快速,不過自1980年出現重大的技術突破後,基改動物的研發成果不斷產出,目前基改動物的研發方向以醫藥用途最多,其次像是環保、食用、抗氣候變遷等,均有相關的研究投入。隨著研發成果的累積,美國也開始構思基改動物的規範議題,2008年9月,美國FDA及APHIS分別就基改動物提出規範細節及資訊調查的公告。 由於美國並未對基改生物訂定管理專法,而是利用既有的法規體系來管理基因改造生物,而既有法規原各有其規範目的,因此如何從這些既有法規的規範目的出發,闡述其用來規範基改動物的適當連結,以及相關主管機關將如何運用既有法規來管理基改動物,便成為研議的重點。 目前FDA內的CVM(Center for Veterinary Medicine)已率先宣告其對基改動物的主管權限,並公告「基因重組動物管理之產業指導原則(草案)」(Draft Guidance for Industry on the Regulation of Genetically Engineered Animals)。FDA認為,由於轉殖進入基改動物體內的重組DNA構體(rDNA construct),已對動物本身的結構與功能(construct and function)產生影響,符合其依聯邦食品藥品及化妝品管理法(Federal Food, Drug, and Cosmetic Act)規定所稱之藥(drug)的定義,因此,FDA宣告其對所有的基改動物(精確來說是轉殖於其體內的重組DNA構體),將視以動物用新藥(new animal drug)管理之,至於基改動物後續可能有不同的用途,則另須符合相關的產品主管法規,始可上市。在APHIS部分,其主要負責動物健康之把關,目前APHIS正對外進行廣泛的資訊蒐集與調查,以作為其後續研擬進一步的管理規則或政策之參考依據。
英國上議院人工智慧專責委員會提出AI應用影響報告並提出未來政策建議英國上議院人工智慧專責委員會(Select Committee on Artificial Intelligence)2018年4月18日公開「AI在英國:準備、意願與可能性?(AI in the UK: ready, willing and able?)」報告,針對AI可能產生的影響與議題提出政策建議。 委員會建議為避免AI的系統與應用上出現偏頗,應注重大量資訊蒐集之方式;無論是企業或學術界,皆應於人民隱私獲得保障之情況下方有合理近用數據資訊的權利。因此為建立保護框架與相關機制,其呼籲政府應主動檢視潛在英國中大型科技公司壟斷數據之可能性;為使AI的發展具有可理解性和避免產生偏見,政府應提供誘因發展審查AI領域中資訊應用之方法,並鼓勵增加AI人才訓練與招募的多元性。 再者,為促進AI應用之意識與了解,委員會建議產業應建立機制,知會消費者其應用AI做出敏感決策的時機。為因應AI對就業市場之衝擊,建議利用如國家再訓練方案發展再訓練之計畫,並於早期教育中即加入AI教育;並促進公部門AI之發展與布建,特別於健康照顧應用層面。另外,針對AI失靈可能性,應釐清目前法律領域是否足以因應其失靈所造成之損害,並應提供資金進行更進一步之研究,特別於網路安全風險之面向。 本報告並期待建立AI共通之倫理原則,為未來AI相關管制奠定初步基礎與框架。
日本政府擬修法加強交友網站管制以保護未成年人有鑑於未滿18歲青少年透過交友網站而遭受性侵害等事件頻傳,日本警察廳專家研究會議,建議增訂課以交友網站業者應向地方政府公安委員會提出申請,以及嚴格確認會員年齡等義務。警察廳在接受前述意見後,將進行「交友網站規範法」修法作業,並於徵求各方意見後,向國會提出修正法案。 日本政府於2003年施行「利用網路異性介紹事業引誘兒童行為規範法」(簡稱「交友網站規範法」)後,被害兒童人數逐年減少;但自2006年起再度呈現攀升趨勢。依據現行法規定,引誘未滿18歲兒童利用交友網站而進行性行為或援助交際者,將處以六個月以下拘役或100萬日圓以下罰金。對於交友網站業者,除應明示禁止兒童利用外,並課以確認使用者非兒童之義務。然而,在該法施行後,警察廳雖得對特定業者進行警告,卻因交友網站使用海外伺服器或利用免費網站,伺服器管理者無法確認交友網站業者的資料,而引發許多問題。因此,警察廳認為現行規範法實施四年後,規範效果已經遞減,而開始著手進行修法。 日本警察廳根據專家研究會議之建議,提出「網站經營者責任明確化」、「防止兒童利用」以及「排除資格不符的業者」等三大因應策略。未來「交友網站規範法」之修法方向,將課以交友網站業者向地方政府公安委員會提出申請,並應嚴格確認會員年齡等之義務。如業者發現使用者為兒童,或得知大人對兒童留下買春的邀約時,業者必須刪除該文字,並應要求該使用者退出會員。此外,「交友網站規範法」也將增訂停止命令,對於不遵從改善命令之業者,將可以強制停止業務外,並應審查是否為黑道等不良份子,以排除不適格的業者。為使停止命令具有實效性,也將檢討是否對不服從命令之業者科以刑事罰則。另一方面,從保護兒童的觀點來看,監護人與行動電話業者亦扮演重要角色,故也擬增訂加強電信業者應負限制連結或過濾交友網站等之責任。
英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議: (一)關於人工智慧及應用界定與發展 人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。 (二)未來對社會及政府利益及衝擊 人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。 目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。 在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。 (三)關於相關道德及法律風險管理課題 人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考: (1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。 (2)調適由人工智慧作決策行為時的歸責概念和機制。 有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。 針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。 人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。