加拿大對於日益嚴重之網路霸凌及網路犯罪,甚至青少年因網路霸凌而自殺案件頻傳,為免此種悲劇再發生,加拿大政府擬訂之「保護加拿大國民遠離網路犯罪法」(Protecting Canadians from Online Crime Act,簡稱Bill C-13),於2015年3月10日生效。
此項法案係修正刑法、競爭法及證據法,法案內容如下:
1.適用對象:不分是否成年,皆有適用。
2.增修內容:
(1) 補充修訂非自願的親密圖片散佈法令,授權法官得從網路上移除這些圖像及收取回復費用,得以沒收財產及下達擔保命令,以限制加害人使用電腦或網路就此類圖像之散布。
(2)賦予保存請求權和命令之權力,強制保全電子證據。
(3)新訂法院可下達提供命令,強制相關義務人提供通訊傳輸、交易位置、個人及相關事物資訊。
(4)授權延長關於使用電信傳輸相關資料之調查權。
(5)授權與法律分配利害關係相關之交易、個人與事物等做為追蹤調查對象。
(6)簡化關於取得關於截取私人通訊之法官授權及命令程序。
(7)修訂加拿大證據法,以確保加害人之配偶得為被害人證人。
惟就本次修訂,有反對意見認為可能會擴張國家調查權,而侵害人民隱私。
澳洲醫療安全與品質委員會(Australian Commission on Safety and Quality in Health Care, ACSQHC)與衛生、身心障礙及高齡照護部(Department of Health, Disability and Ageing)聯合於2025年8月發布《人工智慧臨床應用指引》(AI Clinical Use Guide),旨在協助醫療人員於臨床情境中安全、負責任使用人工智慧(Artificial Intelligence, AI)。該文件回應近年生成式AI與機器學習快速導入醫療現場,卻伴隨證據不足、風險升高的治理挑戰,試圖在促進創新與確保病人安全之間建立清楚的合規框架。 該指引以臨床流程為核心,將AI使用區分為「使用前、使用中、使用後」三個階段,強調醫療人員須理解AI工具的預期用途、證據基礎與風險限制,並對所有AI產出負最終專業責任。文件特別指出,當AI工具用於診斷、治療、預測或臨床決策支持時,可能構成醫療器材,須符合澳洲醫療用品管理管理局(Therapeutic Goods Administration, TGA)的相關法規要求。 在風險治理方面,該指引明確區分規則式AI、機器學習與生成式AI,指出後兩者因輸出不確定性、資料偏誤與自動化偏誤風險較高,臨床人員不得過度依賴系統建議,仍須以專業判斷為核心。同時,文件要求醫療機構建立AI治理與監督機制,持續監測效能、偏誤與病安事件,並於必要時通報TGA或隱私主管機關。 在病人權益與隱私保護方面,指引強調知情同意與透明揭露,醫療人員須向病人說明AI使用目的、潛在風險及替代方案,並遵循《1998年隱私法》(Privacy Act 1988)對個人健康資料儲存與跨境處理的限制。澳洲此次發布之臨床AI指引,展現以臨床責任為核心、結合法規遵循與風險管理的治理取向,為各國醫療體系導入AI提供具體且可操作的合規參考。 表1 人工智慧臨床應用指引合規流程 使用前 使用中 使用後 1.界定用途與風險。 2.檢視證據與合規。 3.完備治理與告知。 1.AI輔助決策。 2.即時審查修正。 3.維持溝通透明。 1.持續監測效能。 2.標示可追溯性。 3.通報與再評估。 資料來源:AUSTRALIAN COMMISSION ON SAFETY AND QUALITY IN HEALTH CARE [ACSQHC], AI Clinical Use Guide (2025).
日本數位市場競爭中期展望報告提出數位市場競爭短中期策略日本數位市場競爭本部(デジタル市場競争本部)於2020年6月發布了「數位市場競爭中期展望報告」(デジタル市場競争に係る中期展望レポート案),該報告認為大型數位平台業者透過龐大的用戶資料,不斷地(1)擴大並連結用戶、(2)垂直整合上下游產業並(3)從虛擬鎖定實體的銷售,對市場形成動態競爭(ダイナミック競争)結果。此一結果將導致數位市場極易形成掠奪性定價或併購的風險、資料集中的風險、資料可靠性的風險,甚至是個人價值判斷的風險。 為促進數位市場的治理與信任,該報告提出了以下短期與中長期的政策方向: 鼓勵企業數位轉型以增加數位市場的多樣性:推廣數位轉型指標、擴大沙盒制度適用、加速數位政府戰略。 建立數位市場競爭制度:運用經濟分析強化競爭管制、推動《數位平臺交易透明法》(デジタルプラットフォーム取引透明化法)法制化、建立大型數位平台調查機制。 建構去中心化的資料治理技術:透過資料持有、交換的「去人工干預」,形成一個可信任的網路世界。 該報告已於2020年8月7日完成公眾意見募集,預計於2020年年底前提出最終報告。目前日本新經濟聯盟認為,高頻率的競爭策略以及智慧化交易模式下的反壟斷政策,除了不正競爭的禁止外,政府更應著重在透明化檢視機制的建立。此外報告目前並未處理到平台資料治理的課題,聯盟對此認為政府應更積極地從資料壟斷的概念,調整數位市場准入的障礙。
以色列發布人工智慧監管與道德政策以色列創新、科學及技術部(Ministry of Innovation, Science and Technology)於2023年12月17日公布以色列首個關於人工智慧的監管和道德政策,在各行各業將人工智慧作為未來發展方向的趨勢下,以多元、協作、原則、創新的理念為其導向,為了化解偏見、人類監督、可解釋性、透明度、安全、問責和隱私所帶來的衝擊,以色列整合政府部門、民間組織、學術界及私部門互相合作制定政策,以求解決人工智慧的七個挑戰,帶領以色列與國際接軌。 該人工智慧政策提出具體政策方向以制定措施,其中具有特色的三項為: 1. 軟性監管:人工智慧政策採取軟性監管制度,以OECD人工智慧原則(OECD AI Principles)為基礎,採行制定標準、監督與自律等方式促進人工智慧永續發展,注重以人為本的道德原則,強調創新、平等、可靠性、問責性。 2. 人工智慧政策協調中心(AI Policy Coordination Center):邀集專家學者成立跨部門的人工智慧政策協調中心,進行人工智慧政策研議,向政府部門監管提出建言,為人工智慧的開發使用建立風險管理,並代表國家參與國際論壇。 3. 公眾參與及國際合作:政府機關與監管機構舉辦人工智慧論壇,提出人工智慧的議題與挑戰,邀請相關人士參與討論,並積極參與國際標準制定,進行國際合作。 我國科技部在2019年邀集各領域專家學者研議提出「人工智慧科研發展指引」,強調以人為本、永續發展、多元包容為核心,以八大指引為標竿,推動人工智慧發展。我國已有跨部會溝通會議對於人工智慧法制政策進行研討,可觀察各國軟性監管措施作為我國人工智慧風險管理及產業政策參考,與國際脈動建立連結。
何謂芬蘭科學院(AOF)?芬蘭科學院(Academy of Finland, AOF)是隸屬於芬蘭教育、科學及文化部的專業研究資助機構,旨在促進芬蘭科學研究的多樣化及國際化,資助前端突破性科學研究,提供科學技術及科學政策的專業知識,並加強科學研究的地位。芬蘭科學院最高決策單位為七人委員會,委員會主席由科學院院長出任。 底下設有:文化與社會、自然科學與工程、健康醫學以及環境與自然資源四個研究委員會。每一委員會設主席一人委員十人,任期三年。行政單位由大約一百位專家組成,主要工作為準備及執行七人委員會及各研究委員會的各項工作與決策,並撰寫科學報告和研究計畫。 其任務包括獎助大學與研究機構內的科學研究工作與團隊、參與多邊研究計畫的規劃與獎助、資助芬蘭研究人員參與國際研究計畫、評估科研計畫的品質及水準,以及科技政策專業諮詢等。研究範圍涵蓋建築、太空研究、細胞生物和心理學到電子和環境科學研究。