英國數位、文化、媒體暨體育部於2018年10月14日公布「家用智慧裝置消費者指引」(Consumer guidance for smart devices in the home)。該指引之目的係因應家用之智慧及聯網設備(例如:智慧電視、音樂播放器、聯網玩具或智慧廚房等)日益普及,以及可能發生之侵害消費者個人資料之風險。
本指引提出以下方向,供消費者參考:
一. 智慧裝置之設定
(一) 應閱讀與遵循智慧設備之設定指示。
(二) 確認設備指示是否要求使用者須至製造商網站設定帳號。
(三) 若所設備預設之密碼過於簡單(例如,0000),則應更換成較複雜之密碼。
二. 帳號管理
(一) 確保密碼複雜性。
(二) 若設備提供雙重驗證功能,消費者應使用之。
(三) 特定產品可能提供遠端存取功能,消費者應於不再家時考慮將該功能關閉。
三. 持續更新應用軟體與Apps
(一) 消費者應檢查其設備是否可設定自動更新。
(二) 應安裝最新版本的軟體與Apps。
四. 若接到資安事件之通知,應採取行動
(一) 於接到資安事件通知後,應訪問製造商網站以確認其是否提供後續因應措施等資訊。
(二) 定時確認國家安全網路中心以及資訊保護委員會辦公室網站是否公布相關網路安全指引。
本文為「經濟部產業技術司科技專案成果」
歐盟執委會於2023年10月24日發布「歐洲風電行動計畫(European Wind Power Action Plan)」,以支持歐洲風電相關產業發展並強化其競爭力,同時確保該產業能在綠色轉型的過程中持續扮演關鍵角色,並以此提高整體風電的裝置容量。該計畫要求委員會、成員國和產業應立即採取以下6個方向的行動措施: (1)透過可預測且快速的許可程序,加速風電的建置 執委會與成員國將共同發布「Accele-RES」倡議,推動許可流程的數位化、許可機關的職員訓練及建立政策指引文件,以及提高許可相關議題之討論層級;並且,鼓勵成員國透過風電承諾(Wind Pledges)、透明的競標時程表和長期的規劃來提高開發專案進度的透明度。 (2)改善風電競標機制的設計 在《淨零產業法(Net-Zero Industry Act)》草案和電力市場設計改革的基礎上,建立更客觀、非歧視性且透明化的風電競標標準,並將目標入法使相關策略具法律約束力。 (3)促進資金的取得 為了擴大對於歐洲風能產業的投融資,歐盟執委會將透過創新基金、歐洲投資銀行(EIB)提供歐盟風電相關產業的資金,以及融資擔保;並利用國家援助(State Aid)規範對歐盟風電供應鏈提供補助。 (4)建立公平且具競爭性的國際環境 為確保風電產業能在公平競爭的環境中順利營運,歐盟執委會將密集監管可能有利於外國業者的不公平貿易行為,並將持續利用貿易協定促進歐盟業者進入外國市場,同時推動風電產業的規格標準化。 (5)培育產業技能 建立「大規模技能合作夥伴關係(Large scale skills partnerships)」以及透過《淨零產業法》推動「淨零產業技能學院」,培訓風電產業技術人才,包含針對青年、婦女與長者的職能培育計畫,以及勞工技能提升與再培訓計畫,因應積極的氣候目標以及市場規模快速擴張所創造之人力需求。 (6)鼓勵產業投入與成員國的承諾 歐盟執委會將與成員國和風電產業共同制定歐盟風能憲章(EU Wind Charter),促進更多風電利害關係人參與締約,擴大憲章適用對象,以建立歐洲風電產業能保持競爭力的優良環境。
德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南,旨在提升企業數位化與社會責任,並提升消費者權益保護。 德國司法及消費者保護部次長Gerd Billen於會議中指出,無論技術細節和具體應用如何發展,法律和消費者保護政策應確保人工智慧安全性,且不因此受歧視,以及盡可能確保技術利用透明度。而隨著人工智慧的發展,應設法解決使用人工智慧產生的法律問題。 例如,如何在製造商,供應商和消費者之間公平分配責任歸屬問題?在家庭,物流和手術室等領域已有越來越多具備自我學習的機器人被應用,相關權利是否會有所不同?如果機器出現不明原因故障,會發生什麼情況及如何處置?當機器透過在製造時尚未完全預定的環境感官認知做出具體決定時,該自動行為所生效力為何? 本份指南則提出六項建議: 促進企業內部及外部訂定相關準則 提升產品及服務透明度 使用相關技術應為全體利益著想 決策系統的可靠性仍取決資料的準確性。 重視並解決解決機器偏差問題 在特別需要負責的決策過程,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。
IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。