為了瞭解德國消費者對於市面上眾多應用「奈米」科技之消費產品的想法,德國聯邦風險評估研究所(Bundesinstitut für Risikobewertung,BfR)於2007年抽樣調查一千位消費者,並於該年底公布調查結果。根據該問卷調查結果顯示,超過三分之二(66%)受訪者對於奈米科技發展持樂觀態度,並認為應該支持奈米科技的持續發展,並且認為奈米科技改善了生活品質以及其帶來的效益勝過風險。
但是,對於不同領域所應用之奈米科技,受訪者卻表現出不同的態度。因此該研究所所長Andreas Hensel認為,消費者不是依據事實為評價,而是依據「感性標準」。也就是說,他們所「感覺到」的風險在他們理解新科技時扮演重要角色。
相較於2004年所做的問卷調查,目前約有52%的受訪者聽過奈米概念,之前的調查結果只有15%。多數受訪者相信奈米可以幫助醫學領域的發展;其也相信應用奈米於顏料、漆料可提高耐刮與耐磨之能力。在紡織品領域也一樣,民眾相信防污的產品;受到民眾接受的還包括奈米科技在包裝材料以及防曬產品領域之應用。不過,對於其他化妝品卻只有53%的受訪者相信奈米的改善功能。絕大多數受訪者都拒絕將奈米科技應用於食品:69%受訪者拒絕添加「奈米」於調味料,即使奈米可以防止結塊;而就算因此可以延長食物保存期限,也有高達84%的受訪者拒絕在食物中添加奈米微粒。
多數的消費者獲取奈米科技資訊主要來自於大眾媒體,如電視、報紙、期刊與網際網路。但是他們是否相信該資訊,則取決於提供者為何,最受信賴之資訊來自於消費者組織,如消費者保護團體以及產品檢測基金會(Stiftung-Warentest)以及科學界(92%),最不受信賴的資訊則來自於經濟(32%)與政治(23%)。
美國《德克薩斯州政府法(Government Code),以下簡稱政府法》的第406節「公證人、契約證明人(Notary Public; Commissioner of Deeds)」相關修正案於2024年1月1日正式生效,旨在針對該節的第406.101分節以下的線上公證相關規範,透過擴充線上公證要件,使遠端墨水公證(Remote Ink Notarization, RIN)成為法定線上公證方法,並明定相關程序要求,確保遠端墨水公證機制的安全性。 針對遠端墨水公證,依照美國土地產權協會(American Land Title Association, ALTA)提出的定義,係指文件透過影音媒體平台進行遠距公證,且無須經過多因子驗證。針對遠端墨水公證,雖然在新冠肺炎(COVID-19)流行期間,曾透過州長行政公告方式,承認在滿足指定條件下,得使用遠端墨水公證方式,進行交易,而本次修法則透過修正現有法規,以達到允許進行遠端墨水公證,且同時維持法定電子公證制度的安全架構。 本次修法內容如: 1.定義文件可包含實體及電子文件。 2.針對經電子公證的實體文件,承認委託人及公證人分別得使用實體符號(tangible symbol)及符合法定要求的辦公室印章,進行簽署。 3.強調電子公證應留存之紀錄內容,並非電子文件,而應留存文件的類型、標題及描述等規定。 跨境或電子交易已逐漸成為主流交易方式,而透過現行電子公證制度,雖然能夠強化電子或實體文件的可信性,惟公證制度實際上僅能針對公證當下的文件內容,提供擔保效力。若企業需要確保在公證前,相關文件內容未經偽變造,則必須在文件生成後落實適當資料管理措施。與此同時,公證人基於法規要求,對於經公證的電子、書面文件或公證紀錄等,負有法定保存或保密義務。若相關文件或紀錄發生外洩、外流等問題時,公證人除須負擔契約損害賠償責任外,甚至可能被科以刑責。因此,不論企業或公證人均可參考「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,建立系統性的資料管理機制或強化既有管理機制,避免發生資料偽變造或外洩等問題。 本文同步刊登於TIPS網(https://www.tips.org.tw)
越南公布關於電子身份識別和驗證的新法令草案越南公共安全部(The Ministry of Public Security)於 2022 年 2 月 2 日發布了一份關於提供電子身分識別和認證的法令草案。該法令草案訂定之目的係為電子識別和認證服務的管理、提供與使用奠定其法律基礎。 隨著網路與電子交易日漸流行,尤其在COVID-19疫情期間,驗證與識別交易之人顯得格外重要。在越南,雖然在眾多的法律與規範下一般性地承認電子交易的有效性,但在實務上,僅有數位簽章所進行之交易才被越南當局廣泛接受且認定其有效性。然而,對於個人而言,註冊數位簽章可能複雜、成本高且耗時,故根據法令草案,越南公共安全部提議將電子身份作為個人在電子交易中識別身分的一種更簡單的方式。 以下為此次草案之主要重點: 一、根據法令草案,隨著安全性和可靠性的等級提升,電子身分被分為從一級到四級的四個不同級別。第一級為從註冊者獲取數位資訊;第二級除了符合第一級以外,同時直接或線上檢查註冊者提供的個人資訊與政府當局出具的文件副本是否相符;第三級除了符合第二級外,透過直接核對公民身分證、與公民身分證電子連接以及與國家人口數據庫連接藉此蒐集數位資訊;第四級除了符合第三級以外,註冊者即時於線上或是親自現身。 二、除非法律另有規定,服務提供商可以規定其服務所需的電子身分級別。當設置了級別並且客戶已經提供了相關的電子身分時,服務提供商不能要求客戶提供進一步的資訊。 三、雖然法令非具有強制性,但鼓勵公司使用電子身分來驗證電子交易中的用戶與客戶。 四、該法令草案規定提供電子身分識別和驗證服務的公司需取得相關執照之需求,且該法令草案還規範了公司獲取、交換有關電子身分識別和驗證資訊的平台。
英國民航局發布航空AI監管策略三文件,以因應AI於航空領域之挑戰與機會英國民用航空局(United Kingdom Civil Aviation Authority, CAA)於2024年12月3日發布「CAA對新興AI驅動自動化的回應」(The CAA's Response to Emerging AI-Enabled Automation)、「航空人工智慧與先進自動化監管策略」(Part A:Strategy for Regulating AI and Advanced Automation in Aerospace)以及「CAA 應用AI策略」(Part B: Strategy for Using AI in the CAA)等三份文件。首先,前者概述CAA對於AI應用於航空領域之總體立場,強調以確保安全、安保、消費者保護及環境永續等前提下,促進AI技術在相關航空領域之創新與應用;其次,「航空人工智慧與先進自動化監管策略」著重說明如何於航空領域監管AI技術之使用,以兼顧推動創新並維持安全性及穩健性;最後,「CAA 應用AI策略」則聚焦於CAA內部使用AI技術提升監管效率與決策能力的策略。 由於AI正迅速成為航空產業之重要技術,其應用範圍包含航空器、機場、地面基礎設施、空域、航太、消費者服務等,具有提高航空安全性、運作效率、環境永續性與消費者體驗之潛力。然而,相關技術風險與監管挑戰亦伴隨而至,仍需新的監管框架應對潛在風險。因此,總體而言CAA以推動AI創新技術、提升航空產業效率與永續性為目標,透過了解技術前景、建立AI通用語言,並以航空領域之五大原則為監管框架之制定核心,建立靈活的AI監管體系,維持最高水準的安全保障。五大原則及案例分述如下: (1) 安全、安保與穩健性(Safety, Security and Robustness),例如:使用AI分析航空器感測器資料進行預測維護,以利提早發現問題。 (2) 透明與可解釋性(Transparency and Explainability),例如:清楚記錄AI系統如何提出空中交通路線建議。 (3) 可質疑性與矯正機制(Contestability and Redress),例如:制定一套明確的流程,以便航空公司查詢並了解AI生成的安全建議。 (4) 公平與偏見(Fairness and Bias),例如:確保自動化旅客篩查安檢系統公平對待所有旅客。 (5) 問責與治理(Accountability and Governance),例如:明確界定AI系統在機場運營中的監管角色與職責。 .Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em}
IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。