英國數位、文化、媒體暨體育部於2018年10月14日公布「家用智慧裝置消費者指引」(Consumer guidance for smart devices in the home)。該指引之目的係因應家用之智慧及聯網設備(例如:智慧電視、音樂播放器、聯網玩具或智慧廚房等)日益普及,以及可能發生之侵害消費者個人資料之風險。
本指引提出以下方向,供消費者參考:
一. 智慧裝置之設定
(一) 應閱讀與遵循智慧設備之設定指示。
(二) 確認設備指示是否要求使用者須至製造商網站設定帳號。
(三) 若所設備預設之密碼過於簡單(例如,0000),則應更換成較複雜之密碼。
二. 帳號管理
(一) 確保密碼複雜性。
(二) 若設備提供雙重驗證功能,消費者應使用之。
(三) 特定產品可能提供遠端存取功能,消費者應於不再家時考慮將該功能關閉。
三. 持續更新應用軟體與Apps
(一) 消費者應檢查其設備是否可設定自動更新。
(二) 應安裝最新版本的軟體與Apps。
四. 若接到資安事件之通知,應採取行動
(一) 於接到資安事件通知後,應訪問製造商網站以確認其是否提供後續因應措施等資訊。
(二) 定時確認國家安全網路中心以及資訊保護委員會辦公室網站是否公布相關網路安全指引。
本文為「經濟部產業技術司科技專案成果」
經產省為了在智慧家庭領域創造新事業,整備相關資料活用環境,蒐集共有及分析從多種多樣機器及服務所實際產出之資料,於2017年8月開始實施實證實驗。在實施前,為了使參加實證之民間公司間,得為資訊合作而完備相關規則及保安對策,於5月24日召開「智慧家庭資料活用環境整備推進事業」檢討會。因物聯網(IoT)的擴大得以蒐集龐大資料,以及現在人工智慧(AI)解析能力提高下,期待在各種領域提高生產效率及創造新的事業模式。特別是在智慧家庭領域,其在「新產業構造願景的中間整理」(2016年4月27日、產業構造審議會新產業構造部會)中,為有力重要領域。因此,以IoT技術等使家庭內機器網路化,活用此一資料,除了使既存事業模式發生變革或創造新事業模式外,也期待可以透過把握製品之使用資訊,而提高產品回收(recall)率,並促進資源回收以及家庭部門節能化等相關社會課題解決上。為此,本事業係以對於家庭內機器網路化及透過此而創造新事業為目標,整備事業環境與社會課題及各主題新事業服務創造相連結,因應每個人的生活模式而使得生活空間客製化成為可能,實現智慧家庭之社會目標。
美國商務部產業安全局對半導體成熟節點晶片的使用進行評估調查美國產業安全局(Bureau of Industry and Security,下稱BIS)於2024年1月18日,針對直接或間接支持美國國家安全和關鍵基礎設施,全面評估供應鏈中成熟節點半導體設備的使用情況。本次調查將根據《1950年國防生產法》(Defense Production Act of 1950)第705條進行,以評估在美國關鍵產業(如電信、汽車、醫療設備和國防工業基地)的供應鏈中使用由中國公司生產的成熟節點晶片的程度和影響力。 BIS同時提供常見問答予各界參考,主要包括如下內容: (1)本次評估調查為一次性的資訊蒐集;不排除未來也可能依指示再次進行類似的評估。 (2)本次評估將提供後續政策制定的參考,以加強半導體供應鏈,促進傳統晶片生產的公平競爭,並降低中國對美國帶來的國家安全風險。 (3)自1986年以來,BIS已就造船、戰略性材料、太空和航空、火箭推進、彈藥和半導體等廣泛項目進行過約60多項評估以及150多項調查。 (4)商務部可能會公開一份主要調查結果的摘要說明。 (5)本次評估並非根據《2021年國防授權法案》(National Defense Authorization Act for Fiscal Year 2021,即俗稱之《晶片法》)第9902節規定進行。個別對調查的答覆不會影響申請《晶片法》或其他政府資助的資格或考量。 (6)本次評估並非BIS對於高階運算晶片規範的一部分,而是著重成熟節點或傳統晶片的舊技術。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
從日本政策看我國音樂產業海外拓展之必要性及有效作法