以色列BATM公司研發出Skype整合性軟體-KishKish,未來將提供消費者以付費的方式使用測謊功能。此軟體係透過分析談話者聲音中的緊張程度,告知軟體使用者「對方是否說謊」。如此一來,使用者便可透過軟體分析出來的指示,而即時修正詢問的問題。據說,美軍已開始運用此套軟體! 雖然KishKish的使用如此便利,但是根據英國專家表示,網路使用者若不當使用KishKish,將可能違反「資料保護法」(Data Protection Act)而負擔民事責任,甚至還可能涉及「調查權規範法」(Regulation of Investigatory Powers Act,RIPA)將被處以兩年以上有期徒刑或科以罰金。 至今,Skype仍尚未公布其價格及發布日期。
法國政府考慮強制業者公布使用奈米材料之相關資訊茲因回應2008年針對環境議題所召開之國家諮詢會議,並考量整體環境變遷快速,有待解決之相關問題與過往相較已有所不同,法國政府於2009年1月7日公布新修正之環保法令草案,力求與時俱進;其新環境法規草案著重以下主題:建築與都市計畫、交通、能源與氣候、生物多樣性、風險、健康與廢棄物處理。 其中值得注意者,係針對可能導致危害環境或人體健康的奈米粒子材料,於新法中加以規範。依該新環保法草案第73條,除非個案內容有損國家安全因而為特例之外,現行製造、輸入與使用奈米粒子材料於產品之業者,必須就該奈米材料之性質、數量與使用方式加以揭露,使公眾周知;此外,於主管機關的要求下,業者應評估並呈報該奈米材料之暴露程度與所潛藏之風險。 之所以將奈米粒子納入規範當中,係參考「化學物質登記、評估、授權和管制法」(Registration, Evaluation, Authorisation and Restriction of Chemical substances,REACH),基於永續發展之目標,因而於產品製造及銷售的過程中,賦予製造商與進口商特定之責任與義務;亦即業者必須以負責任之態度製造、進口或使用化學物質,進而取得該化學物質之相關資訊,使之透明化,以確保人體健康和環境免於受到負面影響,促成風險管理措施之順利運行。 該等觀念彰顯了本次法國環境法規修改之特色,其六大主題之規範更需要諸多政府部門的通力合作;再者,法國於積極發展奈米科技的同時,以客觀之態度審視其優缺點,試圖掌握奈米粒子材料之特性,作為管理潛在風險之判斷基準。該法案於2009年2月10日送至議會待表決,後續發展仍值得注意。
紐西蘭通過「危害性數位通訊規制法」,對網路霸凌行為進行管制紐西蘭於2015年7月通過了「危害性數位通訊規制法」(Harmful Digital Communications Act)。有鑑於網路霸凌現象日益嚴重,甚至影響紐西蘭人民生命及身體安全,故而修訂法律規範之。 重點摘錄: 一、目的:減輕數據通訊對個人造成之傷害,並提供有害數據通訊之受害者提供補救的快速和有效的手段。 二、方法: (一) 創建新的民事執行制度,以迅速有效地處理有害的數據通訊內容。 (二) 創建新的刑事犯罪,以應對最嚴重的有害的數據通訊行為。 (三) 修正現行法規,以釐清數據通訊和技術的發展適用範圍。 三、內容: (一) 授權法院得要求網路通訊協定地址提供者(Internet Protocol Address Provider (IPAP))提交匿名之通訊傳播者資訊。 (二) 經受害學生同意後,其所屬學校之負責人得代表進行訴訟程序。 (三) 法院得依據「威脅將造成損害」(threats to cause harm)標準發布命令。 (四) 若不遵守法院命令將有刑事責任。 (五) 行為人經確定判決後,可處2年以下有期徒刑。 (六) 網路內容所有者(online content host)應設置聯絡機制。供使用者聯絡回報,並課予收到申訴時48小時內通知內容作者、申訴人以及取下霸凌內容之責任。 惟法律之修訂,亦引起相關批評,因「有害的」(harmful)之定義不明,而以刑事規制之,恐有侵害言論自由之疑慮。
IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。