英國政府由數位文化媒體與體育大臣(Secretary of State for Digital, Culture, Media and Sport)與商業能源與工業策略大臣(Secretary of State for Business, Energy and Industrial Strategy)代表,於2022年7月18日提交予國會一份「人工智慧監管規範政策報告」(AI Regulation Policy Paper)。內容除定義「人工智慧」(Artificial Intelligence)外,並說明未來政府建立監管框架的方針與內涵。
在定義方面,英國政府認為人工智慧依據具體領域、部門之技術跟案例有不同特徵。但在監管層面上,人工智慧產物則主要包含以下兩大「關鍵特徵」,造成現有法規可能不完全適用情形:
(1)具有「適應性」,擅於以人類難以辨識的意圖或邏輯學習並歸納反饋,因此應對其學習方式與內容進行剖析,避免安全與隱私問題。
(2)具有「自主性」,擅於自動化複雜的認知任務,在動態的狀況下持續判斷並決策,因此應對其決策的原理原則進行剖析,避免風險控制與責任分配問題。
在新監管框架的方針方面,英國政府期望所提出的監管框架依循下列方針:
(1)針對技術應用的具體情況設計,允許監管機構根據其特定領域或部門制定和發展更詳細的人工智慧定義,藉以在維持監管目標確定與規範連貫性的同時,仍然能實現靈活性。
(2)主要針對具有真實、可識別與不可接受的風險水準的人工智慧應用進行規範,以避免範圍過大扼殺創新。
(3)制定具有連貫性的跨領域、跨部門原則,確保人工智慧生態系統簡單、清晰、可預測且穩定。
(4)要求監管機構考量更寬鬆的選擇,以指導和產業自願性措施為主。
在跨領域、跨部門原則方面,英國政府則建議所有針對人工智慧的監管遵循六個總體性原則,以保障規範連貫性與精簡程度。這六個原則是基於經濟合作暨發展組織(OECD)的相關原則,並證明了英國對此些原則的承諾:
1.確保人工智慧技術是以安全的方式使用
2.確保人工智慧是技術上安全的並按設計運行
3.確保人工智慧具有適當的透明性與可解釋性
4.闡述何謂公平及其實施內涵並將對公平的考量寫入人工智慧系統
5.規範人工智慧治理中法律主體的責任
6.釋明救濟途徑
除了「人工智慧監管政策說明」外,英國政府也發布了「人工智慧行動計畫」(AI Action Plan)文件,彙整了為推動英國「國家人工智慧策略」(National AI Strategy)而施行的相關行動。前述計畫中亦指出,今年底英國政府將發布人工智慧治理白皮書並辦理相關公聽會。
警告中提及,新加坡金融管理局(The Monetary Authority of Singapore, MAS)建議公眾在選擇投資加密貨幣時必須具備高度警覺,謹慎行事,並理解其所可能承擔之重大風險。金管局擔心由於近期加密貨幣之價格上漲,例如比特幣,人民可能會被吸引而投資加密貨幣。其他警告內容如下: MAS提醒社會大眾加密貨幣並非法定貨幣。它們非由政府發行,亦無任何資產或發行者之支持。 MAS認為近期加密貨幣價格之上漲係由投機所致,故價格急劇下跌之風險相當高,加密貨幣之投資者對於他們承擔著可能失去全部資本的風險應有所警覺。 加密貨幣之投資無任何監管保障。與大多數的司法管轄區一樣,MAS並未對加密貨幣進行管制。MAS法規既未對加密貨幣中介之安全性進行規制,亦未對加密貨幣交易有適當處理。 由於大多數加密貨幣交易平台之營運者並未存在於新加坡,故難以驗證其真實性或可信性。投資者與營運情形難以被輕易驗證之實體往來時,欺詐風險就更大。 加密貨幣之交易通常是匿名進行,使其易被誤用於非法活動。若發現加密貨幣中介平台非法使用加密貨幣,其執法機構可能會使其關閉。當加密貨幣平台沒有足夠強大的安全特徵時,可能會有被駭客攻擊進而造成損失之風險。 投資加密貨幣而蒙受損失之人民,將無法依賴由MAS法規所提供之任何保障。在投資加密貨幣之前,公眾應該仔細考慮產品所宣稱之高度獲利性,如果得輕易獲取可觀之利潤程度使人難以置信,那很可能就有問題。投資者應仔細評估加密貨幣之投資是否適合其投資目標與風險偏好。 人民若懷疑所涉及之加密貨幣投資可能會被詐欺或誤用於其他非法活動,應向警方舉報。
美國普及服務再革新—由醫療照護服務主導的寬頻佈建計畫從2006年開始,FCC所推出的「偏遠地區醫療照護領航計畫」 (Rural Health Care Pilot Programs),扶植其國內50個不同的醫療照護寬頻網路。此計畫不僅強化了美國對於遠距醫療照護技術的需求,更被寄望發展成為一高效能之寬頻服務。而計畫中「聯盟」 (consortium-focused)的概念,更促進了城鄉醫療團隊的合作(rural-urban collaboration)。除了減低申請普及服務補助時所需花費之行政成本外,更提升了醫療業者購買所需頻寬時的議價地位。 不過美國政府並不以此為滿足,為進一步改善整體計畫的實施效益, FCC於2012年12月再次針對醫療照護普及服務進行新階段的革新,並提出「醫療照護網路基金」 (Healthcare Connect Fund),以取代原有之領航計畫(Pilot Program)。「醫療照護網路基金」規劃的目的,在於提供計畫參與者更多的彈性,以規劃其本身的網路。業者可透過購買所需之寬頻服務、自行佈建寬頻基礎建設或混合上述兩種方式,取得所需之頻寬。不過FCC亦訂定資格限制以及審查機制。目前僅有具備一定經濟規模的醫療聯盟,可自行佈建寬頻基礎建設,獨立醫療業者並不具佈建之資格。另外,FCC亦要求醫療業者須提出詳細證明,以供主管機關審查。審查文件中需證實所得頻寬資源,是透過公正的招標機制後,所採行最具成本效益之決定。 普及服務的延伸就如同規劃渠道,將水源引向一片匱乏與困境的孤島。美國在面對偏遠地區醫療資源的匱乏,以及該地醫療業者的困境時,運用寬頻網路來傳遞病患所需的服務,也透過城鄉醫療業者的結盟,讓城市醫療團隊所發展的技術,得以與偏遠地區藉提供服務後所得的實證資料,透過網路互通流通,甚至允許醫療業者佈建基礎寬頻建設,以提供更完善的服務。普及服務的概念,不應該偏離電信基礎建設的佈建,但更上一層樓的是以滿足人民基礎生存權利之必須所主導的概念。
美國最高法院認定警方向通信業者取得嫌犯之通信之基地台位址資訊須持有搜索票繼2012年最高法院認為警方在無搜索令的情況下,以GPS追蹤裝置查探犯罪嫌疑人之位置資訊違反憲法第四修正案。最高法院於2017年6月5日,認為警方未持搜索票,而向電信公司取得犯罪嫌疑人過去127天共計12,898筆之行動通信基地台位置資訊(cell-site data)之行為,違反憲法第四修正案。 由於個人利用行動通訊服務時,必須透過基地台進行通訊,因而可藉由該基地台位置,得知每個人所在之區域位置,而此一通訊紀錄過去被電信公司視為一般的商業資訊,因為得知通訊基地台的位置資訊,無法直接得知個人所在的精準位置,僅能得知其概略所在地區。 因此,犯罪調查機關基於1979年 Smith v. Maryland案所建立之原則,即只要該個人資訊屬於企業的一般商業紀錄(normal business record),警方可以在無搜索令的情況下,向企業取得個人資訊, 此一原則又稱為第三方法則(third-party doctrine)。過去在地方法院或上訴法院的審理中,法院對此多持正面見解,認為只要該資料與進行中之犯罪偵查活動有實質關聯(relevant and material to an ongoing criminal investigation),警方即可向業者取得。大法官Sonia Sotomayor早在前述2012年GPS追蹤裝置案的協同意見書中表示,第三方法則不應適用在數位時代,例如用戶撥電話給客服人員,或以電子郵件回覆網路購物的賣方等,無數的日常活動已經大量的向第三方揭露許多資訊。 在數位時代,大量的個人資訊以電磁紀錄的形式掌握在第三方手中,本案最高法院的見解,將會對美國的犯罪調查機關在未持搜索令的情況下,更慎重的判斷向業者取得個人資訊做為犯罪偵查使用時,是否與憲法第四修正案有所違背。
澳洲發布《人工智慧臨床應用指引》提供臨床照護之人工智慧使用合規框架澳洲醫療安全與品質委員會(Australian Commission on Safety and Quality in Health Care, ACSQHC)與衛生、身心障礙及高齡照護部(Department of Health, Disability and Ageing)聯合於2025年8月發布《人工智慧臨床應用指引》(AI Clinical Use Guide),旨在協助醫療人員於臨床情境中安全、負責任使用人工智慧(Artificial Intelligence, AI)。該文件回應近年生成式AI與機器學習快速導入醫療現場,卻伴隨證據不足、風險升高的治理挑戰,試圖在促進創新與確保病人安全之間建立清楚的合規框架。 該指引以臨床流程為核心,將AI使用區分為「使用前、使用中、使用後」三個階段,強調醫療人員須理解AI工具的預期用途、證據基礎與風險限制,並對所有AI產出負最終專業責任。文件特別指出,當AI工具用於診斷、治療、預測或臨床決策支持時,可能構成醫療器材,須符合澳洲醫療用品管理管理局(Therapeutic Goods Administration, TGA)的相關法規要求。 在風險治理方面,該指引明確區分規則式AI、機器學習與生成式AI,指出後兩者因輸出不確定性、資料偏誤與自動化偏誤風險較高,臨床人員不得過度依賴系統建議,仍須以專業判斷為核心。同時,文件要求醫療機構建立AI治理與監督機制,持續監測效能、偏誤與病安事件,並於必要時通報TGA或隱私主管機關。 在病人權益與隱私保護方面,指引強調知情同意與透明揭露,醫療人員須向病人說明AI使用目的、潛在風險及替代方案,並遵循《1998年隱私法》(Privacy Act 1988)對個人健康資料儲存與跨境處理的限制。澳洲此次發布之臨床AI指引,展現以臨床責任為核心、結合法規遵循與風險管理的治理取向,為各國醫療體系導入AI提供具體且可操作的合規參考。 表1 人工智慧臨床應用指引合規流程 使用前 使用中 使用後 1.界定用途與風險。 2.檢視證據與合規。 3.完備治理與告知。 1.AI輔助決策。 2.即時審查修正。 3.維持溝通透明。 1.持續監測效能。 2.標示可追溯性。 3.通報與再評估。 資料來源:AUSTRALIAN COMMISSION ON SAFETY AND QUALITY IN HEALTH CARE [ACSQHC], AI Clinical Use Guide (2025).