2024年9月1日,澳洲生效《政府負責任地使用人工智慧的政策》(Policy for the responsible use of AI in government,下稱政策)。澳洲數位轉型局(Digital Transformation Agency,以下稱DTA)提出此政策,旨於透過提升透明度、風險評估,增進人民對政府應用AI的信任。 1. AI之定義 此政策採經濟合作暨發展組織(OECD)之定義:AI系統是一種基於機器設備,從系統接收的資訊進而產出預測、建議、決策內容。 2.適用範圍 (1)此政策適用於「所有非企業的聯邦個體(non-Corporate Commonwealth entities, NCE)」,非企業的聯邦個體指在法律、財務上為聯邦政府的一部分,且須向議會負責。此政策亦鼓勵「企業的聯邦實體」適用此政策。 (2)依據2018年國家情報辦公室法(Office of National Intelligence Act 2018)第4條所規定之國家情報體系(national intelligence community, NIC)可以排除適用此政策。 3.適用此政策之機構,須滿足下列2要件 (1)公布透明度聲明 各機構應在政策生效日起的6個月內(即2025年2月28日前)公開發布透明度聲明,概述其應用AI的方式。 (2)提交權責人員(accountable official,下稱AO)名單 各機構應在政策生效日起90天內(即2024年11月30日前)將AO名單提供給DTA。 所謂AO的職責範圍,主要分為: I.AO應制定、調整其機構採取之AI治理機制,並定期審查、控管落實情況,並向DTA回報;鼓勵為所有員工執行AI基礎知識教育訓練,並依業務範圍進行額外培訓,例如:負責採購、開發、訓練及部署AI系統的人員,使機構內的利害關係人知道政策的影響。 II.當既有AI 應用案例被機構評估為高風險AI應用案例時,通知DTA該機構所認定之高風險AI應用案例,資訊應包括:AI的類型;預期的AI應用;該機構得出「高風險」評估的原因;任何敏感性資訊(any sensitivities)。 III.擔任機構內協調AI的聯絡窗口 IV.AO應參與或指派代表參與AI議題之政策一體性會議(whole-of-government forums)。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
英國政府將設置兩個新的網路安全機關,以維護國家網路安全英國政府在考量保護政府機關及民眾免於網路安全之威脅下,設置了網路安全辦公室(Office of Cyber Security,OCS)及網路安全營運中心(Cyber Security Operations Centre,CSOC)兩個新的網路安全機關,並將於2010年3月正式運作。同時,內閣辦公室(Cabinet Office)發出聲明表示,英國政府將網路安全訂為21世紀政府的安全防護重點,並認為透過設置這兩個新的機關協助維護國家安全,將是達成這個目標的重要步驟。 在英國政府的規劃下,OCS設於內閣辦公室下,負責提供政府跨部會的資訊安全策略,並整合協調政府部門間網路安全之工作;CSOC則是設置於英國政府通信總部下(Government's Communications Headquarters,GCHQ),負責有效的監測網路空間之健全性並針對緊急事件提出應變措施、瞭解攻擊英國政府及使用者之技巧、提供對於企業及大眾有關網路安全風險應變之忠告與建議。內閣辦公室也表示,OCS將與移民署(Home Office)及警察局長協會(Association of Chief Police Officers,ACPO)合作,盡快制訂出有關防範網路犯罪之相關策略。 英國政府肯認網路安全對於政府在安全防護上的挑戰。因此內閣辦公室強調,網路安全防護策略之整合是重要的,其將透過企業,國際合作伙伴及民眾的力量,藉由專業知識及能力的提升、以及更為完善的策略,降低安全風險及發掘安全防護機會,發揮英國在網路安全防範之優勢。
澳洲發布《人工智慧臨床應用指引》提供臨床照護之人工智慧使用合規框架澳洲醫療安全與品質委員會(Australian Commission on Safety and Quality in Health Care, ACSQHC)與衛生、身心障礙及高齡照護部(Department of Health, Disability and Ageing)聯合於2025年8月發布《人工智慧臨床應用指引》(AI Clinical Use Guide),旨在協助醫療人員於臨床情境中安全、負責任使用人工智慧(Artificial Intelligence, AI)。該文件回應近年生成式AI與機器學習快速導入醫療現場,卻伴隨證據不足、風險升高的治理挑戰,試圖在促進創新與確保病人安全之間建立清楚的合規框架。 該指引以臨床流程為核心,將AI使用區分為「使用前、使用中、使用後」三個階段,強調醫療人員須理解AI工具的預期用途、證據基礎與風險限制,並對所有AI產出負最終專業責任。文件特別指出,當AI工具用於診斷、治療、預測或臨床決策支持時,可能構成醫療器材,須符合澳洲醫療用品管理管理局(Therapeutic Goods Administration, TGA)的相關法規要求。 在風險治理方面,該指引明確區分規則式AI、機器學習與生成式AI,指出後兩者因輸出不確定性、資料偏誤與自動化偏誤風險較高,臨床人員不得過度依賴系統建議,仍須以專業判斷為核心。同時,文件要求醫療機構建立AI治理與監督機制,持續監測效能、偏誤與病安事件,並於必要時通報TGA或隱私主管機關。 在病人權益與隱私保護方面,指引強調知情同意與透明揭露,醫療人員須向病人說明AI使用目的、潛在風險及替代方案,並遵循《1998年隱私法》(Privacy Act 1988)對個人健康資料儲存與跨境處理的限制。澳洲此次發布之臨床AI指引,展現以臨床責任為核心、結合法規遵循與風險管理的治理取向,為各國醫療體系導入AI提供具體且可操作的合規參考。 表1 人工智慧臨床應用指引合規流程 使用前 使用中 使用後 1.界定用途與風險。 2.檢視證據與合規。 3.完備治理與告知。 1.AI輔助決策。 2.即時審查修正。 3.維持溝通透明。 1.持續監測效能。 2.標示可追溯性。 3.通報與再評估。 資料來源:AUSTRALIAN COMMISSION ON SAFETY AND QUALITY IN HEALTH CARE [ACSQHC], AI Clinical Use Guide (2025).
美國FCC廢除網路中立法規2017年12月14日美國聯邦通信委員會(Federal Communications Commission, FCC)以3票對2票表決通過,廢止自2015年來所採取網路寬頻服務的高壓監管規定,並恢復了原來所採取低管制監管框架。支持者與反對者分別來自兩個不同的黨派。 經過詳細的分析以及對消費者和利益相關者的評論廣泛審查後,委員會認為自2015年來對網路寬頻服務採取的高壓規定,對整個網路生態系統施加了巨大的成本。為了取代這個嚴格的框架,FCC重新採用2015年之前的傳統低管制監管框架。 FCC 特別要求行動寬頻服務業者應公開揭露其網路管理政策例如:如何處理網路安全與壅塞問題、服務內容與商業條款等,以利於消費者與業者進行有效選擇,並促進政府對寬頻業者的行為進行有效的監督。此外 ,FCC恢復了聯邦貿易委員會(Federal Trade Commission, FTC)的管轄權,以便在寬頻業者從事反競爭、不公平或欺騙行為時採取行動。 在對消費者的影響方面,自由市場的支持者認為,付費優先的作法,意味在寬頻基礎建設上會有更多投資,使得上網和整體資料傳輸速度大為增加。 為達上述目標,委員會所採取之具體措施如下: 將寬頻接取服務(包括固定與行動寬頻服務)重新歸類為資訊服務。 將行動寬頻接取服務恢復歸類為私人行動服務。 將網路服務提供者有關隱私保護、不公平、詐欺和反競爭行為之管轄權回歸由聯邦貿易委員會負責。 要求網路服務提供者向消費者、企業和委員會揭露有關其做法的訊息,包括阻止,限制,支付優先次序或附屬優先次序。 此外FCC又禁止各州限制擴建寬頻網路服務的法律。據FCC統計,大約20個州有限制社區寬頻網路服務活動的法律,這些州的法律不公平地限制政府部門與有線電視和電信寬頻服務提供商的競爭。 FCC通過該案後引發不少如Google、Facebook及Netflix等科技公司,與消費者保護環體齊力撻伐,認為ISP業者在FCC力挺下,將可隨意限制民眾上網瀏覽的內容,大企業因此具優先權,不利新創網路公司生存發展,且投下反對票的政黨表示,將率領各州對聯邦傳播委員會這項決定提出法律挑戰,透過訴訟尋求翻盤機會。