2014年6月25日,美國聯邦最高法院就Riley v. California一案作出判決,否定了附帶搜索(註)亦適用於行動電話的見解,並要求警察在查看嫌犯手機的內容前必須取得搜索票。
法院見解認為,由於手機裡的資料顯然不會造成執法者人身安全的危險,而在警察取得搜索票的這段期間內,資料也不可能遺失(甚至可以透過切斷手機連線功能,防免資料因遠端移除或加密而遺失),因此手機內容應不在附帶搜索的適用範圍內。判決中另指出,智慧型手機已經成為人們日常生活中無時無刻、無所不在的一部分,其中含有大量的個人資訊,包括通聯紀錄、標記有日期及地點的照片與影片、網路搜尋及瀏覽紀錄、購物清單及GPS定位等,若允許警察在未取得搜索票的情況下查看嫌犯手機,將有可能嚴重侵犯到個人隱私。
首席大法官John Roberts表示:「如果更進一步地細究系爭隱私利益之範圍,用戶在現代手機上所看到的資料,事實上並不儲存在裝置本身。將手機看作一個容器並對其內容實施附帶搜索,這樣的預設是有點勉強的,尤其當手機被用來讀取儲存在他處的資料時,這種說法更是完全無法成立。」
在其協同意見書中,大法官Samuel Alito也認為,相對於非電子資訊,法院為電子資訊提供了更多的隱私保護。同樣是通聯記錄,如果是從嫌犯口袋裡扣押的紙本帳單取得,在法律上毋須取得令狀即得搜索,但如果是儲存在手機裡就不是這麼一回事了。
註:為保護執法者人身安全並防免被告湮滅證據,我國刑事訴訟法第130條規定,檢察官、檢察事務官、司法警察官或司法警察逮捕嫌犯或執行拘提、羈押時,雖無搜索票,得逕行搜索其身體、隨身攜帶之物件、所使用之交通工具及其立即可觸及之處所,學說上稱作「附帶搜索」,為令狀搜索原則之例外。
英國金融監理機關,針對RBS集團旗下之三間銀行2012年所發生的資訊安全問題,共處以五千六百萬英鎊的罰款。 RBS、NayWest以及Ulstet的客戶於2012年6月,因為銀行執行的軟體更新發生技術上問題,在使用服務(包含線上服務)時,遇到存款結餘及付款執行的正確性問題。 針對此項資訊上的問題,英國金融行為監管局(FAC)處以四千二百萬英鎊的罰款;另一機關,英國審慎管理局(PRA)亦罕見地再以違反「金融機構應以適當風險管理系統以及合理之注意義務,有效管控其服務」規定之理由,另對該銀行處以一千四百萬的罰款。這是首次2個主管機關對於銀行未能有效辨識及管理其已暴露之資訊風險共同處罰之案例。 PRA指出,資訊風險管理系統適當的發揮功能以及控制,是一個公司健全不可或缺的部份,同時對於英國金融體系的穩定也特別重要。 FCA亦試圖開始評估銀行對於他們所曝光的資訊風險的管理程度,以及銀行的管理階層如何去掌握自己銀行,因為技術錯誤所造成的影響程度。 RBS聲明公司已經在主營運系統外建置了鏡像系統,可以繼續處理「主要客戶服務」的顧客交易;同時也可以修復主營運系統。
美國專利訴訟趨勢與科技專案研發成果運用之法制研析 歐盟要求自4月15日起,進口至歐盟的中國米類產品應檢附非基改證明根據歐盟GMO食品上市規則,唯有通過歐盟EFSA的安全評估並經歐盟審查通過發給上市許可的GMO,始得於歐盟境內流通上市。 過去兩年,歐盟陸續發現其自中國進口的米類產品,被未經許可的基改稻米Bt 63污染,對歐盟的食品安全產生重大疑慮,因而引起歐盟官方及消費大眾的高度關注。為此,中國主管當局雖已請求歐盟提供有關此非法GMO之基因構成(genetic constructs)的詳細資訊,並針對歐盟會員國通報至Rapid Alert System for Food and Feed(RASFF)的案件,開始進行調查並暫時禁止相關業者出口米製品,不過中國迄今未能依歐盟要求,提供其在實施出口管理時的控制樣品,以及其所使用的檢測方法與歐盟所要求者,具有相同品質之證明。 因此,歐盟已在今(2008)年2月通過一項緊急措施的決定,要求自4月15日起,進口至歐盟的中國米類產品應檢附非基改證明(GMO-free certification),且此非基改證明應由歐盟官方所設立或認可之實驗室,使用特定的GMO檢測技術檢測後,檢測結果發現未含有GMO成分時,始能核發非基改證明。 雖然歐盟並非我國農產品的主要外銷國家,但歐盟此項緊急措施仍值得我國注意,蓋我國當前GMO的進出口管理法制與先進各國尚有所落差,而我國最主要的農產品出口國—日本,其GMO管理法律中亦有授權主管機關對進口產品實施生物檢查(即是否含有GMO的檢測)的規定,倘若我國在發展GMO時,未能妥善落實GMO的管理,不無可能對非基改產品造成重大衝擊,當前歐盟要求中國出口的米類產品應檢附非基改證明,即是一例。
IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。