英國政府為達成於2021年使完全無須人為操控的自動駕駛車輛可在英國公路上行駛之目標,提出新保險責任制度。透過自動駕駛和電動車輛法案的提出,將為自動駕駛車輛可合法上路行駛鋪路,從而帶動自動駕駛車輛產業發展。整體而言,一旦此立法正式通過,除了代表英國政府正式樹立自動駕駛車輛的保險框架里程碑外,也象徵英國朝向2021年的目標又更邁進一步。
歐盟決定斥資 66 萬歐元的經費研究全球的開放原始碼軟體與標準。 歐盟在為期兩年的 FLOSSWorld 專案中,首度贊助的國際性開放原始碼軟體研發與政策發展計畫,先前的 FLOSS 專案主要只著重在歐洲的開放原始碼部分。 FLOSS 即為自由 / 開放原始碼軟體的縮寫 (free/libre/open source) ,藉由本專案,歐盟希望能夠強化歐洲在自由軟體領域的領導力,與增加國際合作夥伴。 FLOSSWorld 召集人 Rishab Aiyer Ghosh 向對外表示,歐盟通常是不贊助國際性專案的。而此次計劃共區分五大區域,而合作的國家包括中國 ( 東亞 ) 、印度與馬來西亞 ( 南亞 ) 、非洲 ( 南非 ) 、東南歐 ( 保加利亞與克羅埃西亞 ) 、中南美洲 ( 阿根廷與巴西 ) 。 研究將專注在三大領域:開放原始碼對於技能發展的影響,以及對經濟與新增職缺的影響;軟體開發的區域差異性;政府與公家單位對使用開放原始碼的態度。 Ghosh 指出 FLOSSWorld 的目標在增加國際層次的合作,增加對其他國家對於開放原始碼的使用與影響的了解程度。
法國CNIL提醒銀行App通話偵測防詐措施須兼顧合法性與用戶權利法國國家資訊自由委員會(Commission Nationale de l'Informatique et des Libertés, CNIL)於2025年7月15日指出近年來詐騙案件快速增加,詐欺行為人假冒銀行人員,以電話引導受害者自行完成轉帳或新增收款人等操作。為降低受騙風險,部分銀行在行動應用程式中設計機制,能偵測到使用者操作較高風險的交易時若同時處於通話狀態,便可即時跳出警示或暫停交易。此等做法雖有助於阻詐,惟因涉及個人資料存取,故須符合《歐盟一般資料保護規則》(General Data Protection Regulation, GDPR)之規範。 CNIL提醒銀行蒐集通話資訊須取得使用者明確同意,不能僅依賴行動裝置的「電話」權限,亦不得因使用者拒絕同意而限制應用程式之基本使用,僅在如新增收款人、大額轉帳、或轉帳至高風險國家等異常活動操作中才能要求同意,並須提供網站、電話或分行等替代辦理方式。又相關權限請求應在交易操作過程中提出,而非在應用程式安裝時統一要求,安裝前亦應向使用者充分說明。若使用者不同意,仍必須使其能正常查詢帳戶資訊。 此外,在資料處理上須遵循資料最小化原則,僅得蒐集是否進行通話及通話時長之資訊,不得恣意擴大資料蒐集範圍。與此同時,銀行應讓使用者在同意與撤回同意操作上一樣簡便,不得僅引導至手機裝置設定,而應使消費者能在應用程式中直接操作,並清楚告知撤回同意後功能受限範圍及可替代方案。 除利用應用程式進行通話偵測,CNIL建議銀行尚應搭配其他措施,例如在應用程式內定期推送防詐提醒、舉辦宣導活動,或在確認付款時詢問客戶是否正與自稱是「銀行顧問」之人通話。若銀行欲透過應用程式偵測通話狀態來防詐,則須在合法性、必要性、資料最小化以及使用者同意之間取得平衡。
簡析德國自動駕駛與車聯網發展策略 日本公布設立AI安全研究所與著手訂定AI安全性評鑑標準日本於2023年12月1日舉辦G7數位技術委員會(G7デジタル・技術大臣会合),由日本數位廳、總務省、經濟產業省共同會晤G7會員國代表,基於人工智慧(Artificial Intelligence,下稱AI)可能帶給全球創造性、革命性的轉變,同時也可能伴隨侵害著作權與擴散假訊息的風險,尤其是生成式AI可能對經濟、社會影響甚鉅,因此針對如何妥善使用AI技術,G7全體會員國共同訂定《廣島AI進程》(広島AIプロセス)文件,其聲明內容簡述如下: 1.訂定涵蓋《廣島AI進程》之政策框架(Framework) 2.訂定涵蓋AI設計、系統開發、規劃、提供與使用等所有與AI有關人員,(All AI actors, when and as applicable, and appropriate, to cover the design, development, deployment, provision and use of advanced AI systems)適用之《廣島AI進程》國際標準(Principle) 3.針對開發高階AI系統之組織,訂定可適用之國際行為準則(Code of Conduct) 為此,日本內閣府於2024年2月14日公布,於經濟產業省政策執行機關—獨立行政法人資訊處理推動機構(独立行政法人情報処理推進機構,下稱IPA)轄下設立日本AI安全研究所(Japan AI Safety Institute,下稱AISI),作為今後研擬AI安全性評鑑標準(據以特定或減少AI整體風險)與推動方式之專責機構,以實現安心、安全以及可信賴之AI為目標。AISI所職掌的業務範圍如下: 1.進行AI安全性評鑑之相關調查 2.研擬AI相關標準 3.研擬安全性評鑑標準與實施方式 4.研擬與各國AI專責機關進行國際合作,例如:美國AI安全研究所(U.S. Artificial Intelligence Safety Institute, USAISI) 另一方面,IPA將以內部人才招聘作為AISI成員之任用方式,預計組成約數十人規模的團隊。日本以與G7會員國共識為基礎,採專責機關—AISI進行研究與規劃,並推動日後擬定AI相關使用規範與安全性評鑑標準,據以實現AI應用安全之目標。我國對於AI技術之應用領域,未來應如何訂定使用安全規範,將涉及專業性與技術性事項之整體性規劃,日本因應AI課題而採行的做法值得我國未來持續關注。