本文為「經濟部產業技術司科技專案成果」
法國國家資訊自由委員會(Commission Nationale de l'Informatique et des Libertés, CNIL)於2025年7月15日指出近年來詐騙案件快速增加,詐欺行為人假冒銀行人員,以電話引導受害者自行完成轉帳或新增收款人等操作。為降低受騙風險,部分銀行在行動應用程式中設計機制,能偵測到使用者操作較高風險的交易時若同時處於通話狀態,便可即時跳出警示或暫停交易。此等做法雖有助於阻詐,惟因涉及個人資料存取,故須符合《歐盟一般資料保護規則》(General Data Protection Regulation, GDPR)之規範。 CNIL提醒銀行蒐集通話資訊須取得使用者明確同意,不能僅依賴行動裝置的「電話」權限,亦不得因使用者拒絕同意而限制應用程式之基本使用,僅在如新增收款人、大額轉帳、或轉帳至高風險國家等異常活動操作中才能要求同意,並須提供網站、電話或分行等替代辦理方式。又相關權限請求應在交易操作過程中提出,而非在應用程式安裝時統一要求,安裝前亦應向使用者充分說明。若使用者不同意,仍必須使其能正常查詢帳戶資訊。 此外,在資料處理上須遵循資料最小化原則,僅得蒐集是否進行通話及通話時長之資訊,不得恣意擴大資料蒐集範圍。與此同時,銀行應讓使用者在同意與撤回同意操作上一樣簡便,不得僅引導至手機裝置設定,而應使消費者能在應用程式中直接操作,並清楚告知撤回同意後功能受限範圍及可替代方案。 除利用應用程式進行通話偵測,CNIL建議銀行尚應搭配其他措施,例如在應用程式內定期推送防詐提醒、舉辦宣導活動,或在確認付款時詢問客戶是否正與自稱是「銀行顧問」之人通話。若銀行欲透過應用程式偵測通話狀態來防詐,則須在合法性、必要性、資料最小化以及使用者同意之間取得平衡。
NHTSA要求自動駕駛系統及L2自動駕駛輔助系統回報意外事件美國國家公路交通安全管理局(National Highway Traffic Safety Administration, NHTSA)2021年6月29日 「自駕車與配備等級2駕駛輔助系統車輛之意外事件回報命令(Standing General Order 2021-01:Incident Reporting for Automated Driving Systems and Level 2 Advanced Driver Assistance Systems)」,課予系統製造商與營運商意外事件回報義務,重點如下: (1)適用範圍:全美境內公共道路上發生之車輛碰撞事件,事發前30秒至事件結束期間內曾經啟用等級2駕駛輔助系統或自動駕駛系統。 (2)意外事件定義:事件中任何一方有人員死亡或送醫治療、車輛必須拖吊、安全氣囊引爆或事件涉及弱勢用路人(vulnerable road user)。 (3)回報期限:須於知悉事件後隔日立即回報,知悉後10日傳送更新資料,如後續仍有發現新事證,應於每月15號傳送更新。自駕車發生碰撞,即使無人傷亡、無車輛拖吊或安全氣囊引爆,仍需於次月15號傳送事件回報。 (4)回報方式及項目:需至NHTSA指定網站註冊帳號,線上填寫制式通報表格。項目包含車籍資料、事件時間、地點、天候、路況、傷亡及財損情形等等。 NHTSA收到的回報資料,原則上會在將個人資料去識別化後對大眾公開,惟若系統製造上或營運商主張部分資訊為商業機密,可另行向NHTSA之諮詢辦公室通報審核。如逾期未報或隱匿資訊,可處每日最高22,992美元罰金,累計最高罰金為114,954,525美元。
瑞典網路服務提供者(ISP)之責任瑞典斯德哥爾摩地方法院於2015/11/27針對網路服務提供者(ISP)責任作出判決,有別於過往相關著作侵權訴訟,對象係針對個人或是散布侵權檔案之網站經營者,此次為針對網路服務提供者責任作成的第一筆判決,其結果具有指標性意義。 此次訴訟是由華納、新力、聯合音樂、北歐電影與瑞典電影中心聯合提起,請求法院命一瑞典ISP業者阻斷二個涉及著作權侵害之網站連結。原告等聲稱被告提供網路連接到侵權網站之行為,已構成侵害行為的參與(medverkar),據此請求法院禁止被告繼續此參與侵害行為。然法院未予採納,認為:(一)依歐盟指令(Infosoc-directivet)之要求,若網路中介者之服務受到第三人利用,作為侵害著作權及其鄰接權之用途,各會員國須提供著作權人司法救濟途徑,以對抗中介人。由於瑞典著作權法已提供禁制令(föreläggande)之申請予著作權人,藉此對抗參與侵害行為的幫助犯。可見瑞典著作權法已符合指令之要求。(二)其次,法院認定本案被告係單純提供其顧客網路聯結到侵權網站,不構成瑞典著作權法上之參與侵權行為。因所謂參與必須是客觀上對侵權行為人有幫助行為(如給與建議及諮詢),但本案被告並未與侵權網站有任何契約或特定關係,不能因為少部分之非法使用者利用其網站連結便認定其構成參與侵權行為。故法院認定本案不具備核發禁制令條件,駁回原告等請求。對此,原告擬提出上訴,後續發展有待觀察。
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。