加拿大之地區航空公司-波特航空(Porter Airlines),因違反當地「反垃圾郵件法」(Anti-Spam Law),於2015年6月29日被加拿大廣播電視及通訊委員會(Canadian Radio-television and Telecommunications Commission,簡稱CRTC)裁罰150,000美元。
2014年7月1日施行之反垃圾郵件法,係為杜絕因濫發郵件而對資料當事人造成困擾所制定。在該法中,針對寄送商業電子訊息要求需符合「獲得當事人同意」、「識別發送人之資訊」、「取消訂閱功能設計」等三項條件。然而,波特航空所寄出之商業電子訊息,卻:(1)未設計退訂機制供資料當事人選擇退訂;(2)未提供法規要求之發送人完整聯絡訊息;(3)資料當事人提出取消商業電子郵件訂閱之請求,未於法定之10個工作日內執行;(4)自2014年7月至2015年2月寄出之每一封商業電子郵件,波特航空無法證明其已獲當事人之同意而為之。
CRTC法遵暨執行部門主席Manon Bombardier認為,在過去,企業都習慣依照一般商業慣例或內部政策執行相關工作,透過此一個案,希望能對其他企業產生警示作用。企業應針對發送電子商業訊息之部分,重新檢視並審查其內部相關程序及步驟,是否確實符合當地法規要求及條件,以免類似觸法事件再度發生。
美國商務部工業安全局(Department of Commerce, Bureau of Industry and Security, BIS)於2020年6月15日宣布修改《出口管制規則》(Export Administration Regulations, EAR),調整美國企業和中國大陸華為公司商業往來的相關禁令,允許美國企業和華為合作制定5G標準。國際標準為技術開發的重要基礎,企業在標準制定的參與和領導力,將同步影響5G、自動駕駛、AI及其他尖端技術的未來發展;美國為鞏固全球創新領導地位,積極倡導國內產業參與標準制定成為國際標準,保護國家安全與外交政策利益。雖然華為及其關係企業在2019年5月,因存在重大國家安全風險,被美國商務部列入實體管制清單,禁止美國企業在未獲商務部許可的情況下與華為進行任何業務往來,但此項政策不應妨礙美國企業參與重要的國際標準制定活動。 本次《出口管制規則》補充「一般性暫行核准(Temporary General License)」附錄,允許華為及其68家關係企業在參與國際標準化組織與5G標準制定等特殊情形下,得依據美國行政管理和預算局(Office of Management and Budget, OMB)A-119號通知所制定之標準,取得《出口管制規則》中涉及EAR99或出於反恐原因被列入美國商業管制清單之貨品與技術。代表美國企業毋需取得商務部的暫行核准,也可以在國際標準制定組織中與中國大陸華為等公司分享用於制定5G標準的相關資訊,甚至合作制定5G標準。另外,《出口管制規則》僅在非出於商業目的之合法標準制定情況下,允許美國企業向華為及其關係企業揭露此類技術;若是出於商業目的揭露,仍然須受《出口管制規則》拘束並應保存記錄。
開放科學(open science)開放科學的基本理念,泛指在數位時代的背景下,各類型實驗測量機器獲得大量數據,以及網路行為累積的人類活動記錄,使各領域的研究活動趨向側重資料處理,結合分析工具後,以可閱讀的形式呈現並發表。 開放科學概念應用於行政與制度建立上,主要有兩個面向,其一為政府資助產出科學期刊論文等研究成果的開放取用(open access),意圖解決期刊雜誌訂閱費用過高,導致研究成果流通困難的問題,屬於早期開放科學關注的重點;其二則係使用官方研究資金進行研發時,於研究過程中取得的實驗、觀測及調查之研究資料開放運用,為近期政策與制度性倡議所聚焦,目的為使科學界、產業界以及一般社會大眾得以廣為接收並利用該些研究結果,令政府資金運用的一切成果均能充分回饋給國民與社會,期望藉由研究資料的公開,進一步深化該領域的研究進程、推展跨域研究或企業的產品與服務開發、以及創新活動。 舉例而言,日本內閣府於2018年提出的「統合創新戰略(統合イノベーション戦略)」第二章內,建構了國內開放科學下研究資料管理開放政策之基礎框架,關注伺服器空間內的研究資料保存與管理,與外國研究資料連動以建構巨量知識泉源,讓所有人得以廣泛活用該些研究資料,促成與加速跨領域與跨國境的新創。
淺談美國建築能源科技法制政策發展近況 英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。