英國Ofcom「個資與隱私」報告

  針對告知消費者個資使用方式以及確保消費者對個資利用之參與及意見表達,英國通訊傳播管理局(The Office of Communications, Ofcom)於2015年6月17日公布委託德國顧問公司WIK-Consult進行之「個資與隱私」(Personal Data and Privacy)報告。報告指出,雖然法規要求在處理個資前必須獲取相關消費者的告知同意,但事實是消費者並未在線上實際閱讀隱私權政策條款,這個問題則由於智慧聯網大幅促進了裝置間的互聯性與資料的流通而更形嚴重。報告表示,雖然資料流通的本質不變,但僅因互聯裝置數量倍增就足以讓可近用與分析的資料呈等比級數成長,要在線上對這些遍及生活各層面的資料進行追蹤也就難上加難。

  對於這個起因於智慧聯網興起的問題,報告認為政府可能必須利用更複雜的契約關係加以規範。因為隱私權政策要能透明,必須指出究竟是哪些人會在何時以哪種方式為了何等目的去近用相關資料,但這勢必會讓隱私權政策條款更加冗長,這不但與隱私權政策盡可能應簡潔易懂相違,消費者也更不可能實際去閱讀。此外報告也指出,機台或裝置在智慧聯網下能夠在幾乎沒有人為介入的情況下進行溝通,此將大幅壓縮消費者能夠得知個資蒐集與使用方式的機會,智慧聯網也讓消費者可能根本沒有察覺其正在使用的裝置實際上已經與網路連線。另一方面,隨著互聯複雜性的大幅提高,有意或無意揭露個資也將帶來更多的潛在不利影響。

本文為「經濟部產業技術司科技專案成果」

你可能會想參加
※ 英國Ofcom「個資與隱私」報告, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7291&no=67&tp=1 (最後瀏覽日:2026/02/27)
引註此篇文章
你可能還會想看
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。

美國交通部提出自駕車全面性計畫,以促進自動駕駛系統規範環境之整合、透明性與現代化

  美國聯邦運輸部(US Department of Transportation)於2021年1月11日發布「自駕車全面性計畫(Automated Vehicles Comprehensive Plan, AVCP)」,建立了交通部促進合作、透明性與管制環境現代化,並將自動駕駛系統(Automated Driving Systems)安全整合入交通系統之策略。基於過去「自駕車政策4.0」建立之原則上,自駕車全面性計畫定義了三個目標以達成其願景: 促進合作與透明性:交通部將會促進其合作單位與利益相關人可取得清楚且可靠之資訊,包含自駕系統的能力與限制。 使管制環境現代化:交通部將會現代化相關規範並移除對創新車輛設計、特性與運作模組之不必要障礙,並發展專注於安全性之框架與工作以評估自駕車技術的安全表現。 運輸系統之整備:交通部將會與利害相關人合作實施安全的評估與整合自駕系統於運輸系統之基礎研究與行動,並促進安全性、效率與可取得性。   政策文件中也就相關目標提出了關鍵目的以及行動,包含先前交通部所提出的「自駕系統安全性框架(Framework for Automated Driving System Safety)」草案,將透過建立框架定義、評估並提供自駕系統的安全性需求,並同時保留創新發展之彈性;另外此政策文件也提出了如何將自駕系統融合現有技術應用之實際案例。交通部將會定期的檢視相關行動與計畫,以反應技術與產業發展,並減少重複性之行動,並將資源投注於重要領域。

日本發布電力、天然氣及石油部門之去碳轉型金融路徑圖

  日本經濟產業省於2022年2月4日發布電力、天然氣及石油部門的「去碳轉型金融路徑圖」(トランジション・ファイナンスに関するロードマップ),作為各部門轉型金融之指引,確保資金持續投入,協助二氧化碳主要排放部門朝去碳化轉型,以實現2050年碳中和目標。   電力、天然氣及石油部門之「去碳轉型金融路徑圖」,係以科學根據為基礎,依據日本國內電力、天然氣、石油部門之現況及相關政策規劃,導入現階段具可行性之技術,確實推動減少二氧化碳排放;同時並針對未來技術的發展與革新目標訂定時間表,確保技術與各部門未來之發展能有助日本於2050年達成碳中和目標。一方面於企業欲透過轉型金融取得資金時,指引企業針對其現行氣候變遷對策進行檢討;另一方面,亦可協助金融機構審視企業於轉型融資時所提出之轉型策略與措施,以判斷是否符合轉型金融之資格。各部門主要重點如下: 電力:2020年開始導入轉型燃料(生質能、氫、氨與天然氣之混和燃燒),並逐步淘汰傳統火力發電;2030年確立去碳燃料(純生質能、氫、氨火力發電、再生能源等)相關技術,並推動商用化。 石油:2020年起開發石油製程節能技術,並推動轉型以天然氣為主要燃料;同時發展氫氣製造技術、二氧化碳捕捉技術,於2030年達成商用化。 天然氣:2020年起針對天然氣、液化石油氣進行節能製程、燃料利用效率、合成燃料相關技術開發,並擴大建置都市天然氣管線、確保液化石油氣配送途徑等。

強化政府橫向協調,提升AI治理—澳洲擬於2026年初設立AI安全研究所

澳洲政府於2025年11月25日宣布,將於2026年初設立AI安全研究所(AI Safety Institute)。澳洲AI安全研究所的設立目標,為提供相關的專業能力,以監管、測試與共享AI在技術、風險、危害層面的資訊。經由辨識潛在的風險,提供澳洲政府與人民必要的保護。AI安全研究所將以既有之法律與監管框架為基礎,因應AI風險,協助政府各部門調整相關規範。其主要業務如下: .協助政府掌握AI技術的發展趨勢,動態應對新興的風險與危害; .強化政府對先進AI技術發展及潛在影響的理解; .共享AI資訊與作為協調政府各部門的樞紐; .經由國家AI中心(National AI Centre,NAIC)等管道,提供事業、政府、公眾與AI相關的機會、風險和安全的指導; .協助澳洲履行國際AI安全協議的承諾。 AI安全研究所並為2025年12月2日,工業、科學與資源部(Department of Industry, Science and Resources)發布的國家AI計畫(National AI Plan,下稱澳洲AI計畫)中,保障應用AI安全性的關鍵項目。澳洲AI計畫指出,AI安全研究所將關注AI的上游風險(upstream AI risks),與下游危害(downstream AI harms)。所稱之上游風險,係指AI模型和系統的建構、訓練方式,與AI本身的能力,可能產生的疑慮。下游危害,則係指使用AI系統時,可能的實質影響。 AI安全研究所將支援與國際、政府各部門間之合作;並共享新興的AI技術能力,以及對AI上游風險的見解,發布安全研究成果,提供產業與學術界參考。AI安全研究所監測、分析與共享資訊,提出政府各部門,對AI下游危害,可採取的一致性應對建議。 綜上所述,澳洲政府提出國家AI計畫,於既有的法制體系,滾動調整相關規範,以應對AI風險。並成立AI安全研究所,追蹤國際AI發展脈動,及時提供澳洲政府應對建議,協調各部門採取一致性的行動。澳洲政府對新興AI技術,所採取策略的具體成效,仍有待觀察。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

TOP