英國推動「公共緊急警報:行動通訊預警試驗」實證服務

  為試驗導入智慧防救災各項新興技術與機制,英國國民緊急事務秘書處 (Civil Contingencies Secretariat, CCS) 於2013年秋天分別對北約克郡 (North Yorkshire)、格拉斯哥 (Glasgow) 和薩福克郡 (Suffolk) 三地區進行共三次的「公共緊急警報:行動通訊預警試驗」(Public emergency alerts: mobile alerting trial)。由於英國已有92%民眾具有行動電話,並以隨時得接收訊息為出發點,進行有別於傳統預警系統之公共緊急預警系統試驗。此試驗由國民緊急事務秘書處與O2、Vodafone和EE三間行動網路業者 (mobile network operators) 和地方政府應變單位合作,雖係以行動電話為試驗主軸,但試驗重點則以政府或地方政府應變單位「不知道」民眾個人電話,亦不要求民眾簽署才能取得此次試驗訊息為主。

  此三次試驗手段有二,包括「小型區域廣播服務」 (cell Broadcast service, CBS),係以單點對多點發送緊急簡訊,以及「以地區為基礎的簡訊」 (location-based SMS messaging),以群組方式發送簡訊至指定地區用戶,二種發佈緊急訊息的方法為試驗。

  北約克郡 (North Yorkshire)主要與EE進行發送緊急水災警報系統,對於廣播訊息發送的時間或調整時間長短以供傳送「泡沫警報」(表訊息多寡)到地域寬廣或數個地區而言,是有效的手段。格拉斯哥 (Glasgow)地區為蘇格蘭最大城市,與O2業者進行最大型的試驗,發送數千緊急訊息給民眾。而薩福克郡(Suffolk)則是由於該區不僅於市中心具兩個火車站,遊客也眾多,因此試驗場域以住商混合住宅區及處於該區的人民為主。除小型區域廣播服務和以地區為基礎的簡訊外,薩福克郡也與社交網路Twitter合作,共傳送三種訊息試驗。

  透過上述試驗,公共緊急警報:行動通訊預警試驗計畫報告也提出針對隱私與對於電信服務業者於災害發生當下之通訊服務義務未來應制訂相關規範,以及應統一發送訊息之通訊警報協定標準等建議。

相關連結
相關附件
※ 英國推動「公共緊急警報:行動通訊預警試驗」實證服務, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6564&no=57&tp=1 (最後瀏覽日:2026/04/04)
引註此篇文章
你可能還會想看
OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

加拿大政府擬將安樂死合法化

  加拿大聯邦政府於2016年4月14日向國會提交「醫助善終」法案,即C-14法案(Bill C-14),以修正加拿大的刑法(Criminal Code)相關規定;另外,亦會一併修正年金法(Pension Act)、矯正和有條件釋放法(Corrections and Conditional Release Act)、加拿大部隊成員和退伍軍人重建和賠償法(Canadian Forces Members and Veterans Re-establishment and Compensation Act)相關名詞之解釋。   該法案通過後,醫生、護士、藥師及其他協助執行任務之人,將可對符合資格之病人,以醫療方式協助其結束生命,而免於背負刑法加工自殺罪之責任。   可以使用醫療方式結束生命(Medical Assistance in Dying)之人,必須符合以下列出的所有條件,缺一不可: (1)須為加拿大籍;或是在加拿大停留至少一段時間,可使用加拿大的醫療健康服務者。 (2)年齡至少18歲以上,且可對其健康自主作出決定。 (3)患有極為嚴重且不可治癒之重大醫療情況。 (4)在沒有外界壓力之情形下,自願性的要求以醫療方式結束其自身之生命者。 (5)在接受醫療方式結束生命前,須簽署知情同意書(Informed Consent)。   加拿大議會認同那些處於極為嚴重、難以忍受且無法治癒疾病之族群,有向專業醫療人員尋求結束自己生命的權利;但這需要非常健全的法令體系,以避免任何可能的錯誤或濫用,因為生命一旦消逝就再也無法回復。對於處於弱勢之族群,例如生命品質不佳者、老年人、重病或殘障者,亦應尊重其生命之固有價值,保護他們免於被引誘結束自己的生命是非常重要的。   這部法案是一個衡平的法案,同時保護弱勢族群之生命價值,也保護了特殊族群尋求醫療方式結束自己生命的權利。新法案需待國會投票審議通過後,才能生效。

歐洲航空安全局EASA將制訂無人機管理草案

  近來無人機使用越來越普遍,歐洲各國無人機管理制度不同,例如在德國,無人機不得超過25公斤,英國則規定重量超過20公斤以上的無人機視同一般民航機管理。法國雖禁止飛行器未經核准不得在巴黎上空飛行,但日前頻傳有無人機圍繞著艾菲爾鐵塔、美國大使館、羅浮宮和巴士底獄紀念碑,一度造成恐慌。至於美國,聯邦航空總署(Federal Aviation Administration,FAA)原則上禁止大部份商用無人機飛行,但業者可以申請豁免。   因此,為了統一無人機相關管理辦法,歐洲航空安全局(European Aviation Safety Agency, 以下簡稱EASA)目前已擬管理草案,並將無人機分為三種等級,最低風險無人機是指低耗能飛行器(aircraft),包括模型飛機,該類飛機無須任何形式的證照,只能在操作者視線內且不得在機場與自然保護區使用,其最高飛行高度為150公尺,並禁止在人群上空使用。然而,最高風險無人機管理範圍則將與現行飛行器相關管理規則一樣,必須取得多種飛行證明。此外,無人機帶來的隱私與安全憂慮,EASA表示,這是國家層面議題,例如各國政府可要求無人機上加裝SIM卡的方式解決。   歐盟委員會(European Commission)希望無人機基本規範架構能於今年年底前到位。有關最低風險無人機相關管理草案預計於12月提出,以便業者經營無人機明年可以上路。EASA局長Patrick Ky在一份聲明中表示:「這些規定將確保無人機產業可在安全與可成長的環境下發展。」

日本文化廳發布《人工智慧著作權檢核清單和指引》

日本文化廳發布《人工智慧著作權檢核清單和指引》 資訊工業策進會科技法律研究所 2024年08月21日 日本文化廳為降低生成式人工智慧所產生的著作權風險,保護和行使著作權人權利,於2024年7月31日以文化廳3月發布的《人工智慧與著作權的思考》、內閣府5月發布的《人工智慧時代知識產權研究小組中期報告》,以及總務省和經濟產業省4月份發布的《人工智慧事業指引(1.0版)》的資料為基礎,制訂發布《人工智慧著作權檢核清單和指引》[1]。 壹、事件摘要 日本文化廳的《人工智慧著作權檢核清單和指引》主要分成兩部分,第一部分是「人工智慧開發、提供和使用清單」,依循總務省和經濟產業省4月份發布的《人工智慧事業指引(1.0版)》的區分方式,分為「AI開發者」、「AI提供者」、「AI(業務)使用者(事業利用人)」和「業務外利用者(一般利用人)」四個利害關係人,依不同的身份分別說明如何降低人工智慧開發前後的資料處理和學習等智慧財產權侵權風險的措施,以及提供和使用人工智慧系統和服務時,安全、適當地使用人工智慧的技術訣竅。 第二部分則是針對著作權人及依著作權法享有權利的其他權利人(例如表演人)的權益保護,從權利人的思考角度,建議正確理解生成式AI可能會出現什麼樣的(著作權)法律上利用行為[2]。其次,說明近似侵權的判斷要件、要件的證明、防止與賠償等可主張的法律上請求、可向誰主張侵權、權利主張的限制;於事先或發現後可採取的防止人工智慧侵權學習的可能措施;最後對侵權因應建議權利人可發出著作權侵權警告、進行訴訟、調解等糾紛解決,並提供可用的法律諮詢窗口資訊。 貳、重點說明 日本文化廳於此指引中,針對不同的角色提出生成式AI與著作權之間的關係,除更具體的對「AI開發者」、「AI提供者」、「AI(事業與一般利用人)」,提醒其應注意的侵權風險樣態、可能的合法使用範圍,並提供如何降低風險的對策。同時,從權利人角度提供如何保護權益的指引,並提供可用的法律諮詢窗口資訊。重點說明如下: 一、不符合「非享受目的」的非法AI訓練 日本著作權法第30條之4規定適用於以收集人工智慧學習資料等為目的而進行的著作權作品的複製,無需獲得權利人的授權,但是,該指引特別明確指出「為了輸出AI學習資料中包含的既有作品的內容,而進行額外學習;為讓AI產出學習資料庫中所包含的既有作品的創作表現;對特定創作者的少量著作權作品進行額外個別學習」,這三個情況係同時存有「享受」著作目的,不適用無須授權的規定[3]。 二、不能「不當損害著作權人利益」 從已經採取的措施和過去的銷售紀錄可以推斷,資料庫著作權作品計劃有償作為人工智慧學習的資料集。在這種情況下,未經授權以人工智慧學習為目的進行複製時,屬於「不當損害著作權人利益」的要求,將不適用(日本)著作權法第30條之4規定[4]。在明知某個網站發布盜版或其他侵害著作權的情況下收集學習資料,則使用該學習資料開發的人工智慧也會造成著作權侵權,人工智慧開發者也可能被追究著作權責任[5]。不應使用以原樣輸出作為學習資料的著作權作品的學習方法,如果該已訓練模型處於高概率生成與學習資料中的著作物相似的生成結果的狀態等情況下,則該已訓練模型可能被評價為「學習資料中著作物的複製物」, 對銷毀該模型的請求即有可能會被同意[6]。 三、使用生成式AI即可能被認定為可能有接觸被侵害著作[7] 權利人不一定必須證明「生成所用生成AI的學習資料中包含權利人的作品。如有下述AI使用者認識到權利人的作品的情況之一,權利人亦可透過主張和證明符合「依賴性(依拠性)」要件,例如:AI使用者將現有的著作物本身輸入生成AI、輸入了現有著作物的題名(標題)或其他特定的固有名詞、AI生成物與現有著作物高度類似等。 四、開發與提供者也可能是侵權責任主體[8] 該指引指出,除利用人外,開發或提供者亦有負侵權責任的可能,特別是--人工智慧頻繁產生侵權結果,或已意識到人工智慧很有可能產生侵權結果,但沒有採取措施阻止。於其應負侵權責任時,可能被請求從訓練資料集中刪除現有的著作權作品,甚至是刪除造成侵權的人工智慧學習創建的訓練模型。即便人工智慧學習創建的訓練模型一般並非訓練資料的重製物,不過如果訓練後的模型處於產生與作為訓練資料的著作權作品相似的產品的機率很高的狀態,該指引認為可能會被同意[9]。 參、事件評析 人工智慧(AI)科技迎來契機,其生成內容隨著科技發展日新月異,時常可以看見民眾在網路上分享AI技術生成的圖像和影音。是否能將AI生成的圖案用在馬克杯或衣服販售,或是將Chat GPT內容當作補習班教材,均成為日常生活中的訓練AI的資料與運用AI的產出疑義。 各國固然就存有人類的「創造性貢獻」是人工智慧生成結果是否受著作權法保護、可受著作權保護的條件,單純機械性的AI自動生成,基本上欠缺「人的創造性」,非著作權保護對象,已有明確的共識。如何以明確的法令規範降低AI開發過程的侵權風險或處理成本?賦予AI訓練合法使用既有著作,應有的界限?衡平(賦予)既有著作的著作權人權益?AI服務提供者應負那些共通義務?是否合理課予AI服務提供者應負之侵權損害責任?AI使用者之侵權責任是否須推定符合「接觸」要件?等等諸此進一步的疑義,則仍在各國討論、形成共識中。 而從日本文化廳的《人工智慧著作權檢核清單和指引》,我們可以清楚的看出,在樹立成為AI大國的國家發展政策下,其著作權法雖已賦予AI訓練資料合法的重製,但在指引是明列已屬「享受」目的訓練行為、不合理損害著作權利用的情況、明示開發服務者應負的揭露義務與可能承擔侵權責任,彰顯其對權利人權益平衡保護的努力。值得於我國將來推動落實AI基本法草案中維護著作權人權益原則時,做為完善相關法令機制的重要參考。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1] 文化庁著作権課,「AI著作権チェックリスト&ガイダンス」,令和6年7月31日,https://www.bunka.go.jp/seisaku/bunkashingikai/chosakuken/seisaku/r06_02/pdf/94089701_05.pdf,最後閱覽日:2024/08/20。 [2] 詳見前註,頁31。 [3] 詳見前註,頁7。 [4] 詳見前註,頁8。 [5] 詳見前註,頁9。 [6] 詳見前註,頁9。 [7] 詳見前註,頁35。 [8] 詳見前註,頁36。 [9] 詳見前註,頁42。

TOP