英國數位、文化、媒體暨體育部於2018年3月8日公布「安全設計(Secure by Design)」報告,此報告目的在於使IoT設備製造商於製程中即採取具有安全性之設計,以確保用戶之資訊安全。
此報告中包含了一份經英國國家網路安全中心(National Cyber Security Centre, NCSC)、製造商及零售商共同討論後,提出之可供製造商遵循之行為準則(Code of Practice)草案。
此行為準則中指出,除設備製造商之外,其他包含IoT服務提供者、行動電話軟體開發者與零售商等也是重要的利益相關人。
其中提出了13項行為準則:1. 不應設定預設密碼(default password);2. 應實施漏洞揭露政策;3. 持續更新軟體;4. 確保機密與具有安全敏感性的資訊受到保護;5. 確保通訊之安全;6. 最小化可能受到攻擊的區域;7. 確保軟體的可信性;8. 確保個資受到妥善保障;9. 確保系統對於停電事故具有可回復性;10. 監督自動傳輸之數據;11. 使用戶以簡易的方式刪除個人資訊;12. 使設備可被容易的安裝與維護;13. 應驗證輸入之數據。
此草案將接受公眾意見,並於未來進一步檢視是否應立相關法律。
本文為「經濟部產業技術司科技專案成果」
德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現
美國太空軍是否已經輸掉了第一場戰爭—商標戰爭美國在2019年12月20日建立一支新的軍種—太空軍(Space Force)。這代表以往存在於科幻的宇宙部隊將躍然於現實,但美國太空軍可能會在商標戰爭中,輸給Netflix的喜劇影集「Space Force」。Netflix早於美國政府在歐洲、澳洲、墨西哥等地取得「Space Force」商標,但其並非為搶先美國政府進行註冊,而係為能銷售相關商品。 美國商標法採取先使用主義,即使後使用者先進行註冊,先使用者還是可以取得商標。Netflix自2019年初即開始即在全球廣泛採用「Space Force」做為商標,基本上「Space Force」之商標權應歸屬於Netflix。美國空軍則是在同年3月以「Space Force」申請商標做為一般的使用。然而,美國政府長期以來也有諸多關於軍事資產涉及商標保護之案例,例如派拉蒙影業(Paramount Pictures)在1995年至2005年間六次申請註冊「JAG」(Judge Advocate General)商標,但政府立場並未特別反對。 美國國防部(簡稱:DOD)針對商標授權使用,於商標許可指南(DOD Trademark Licensing Guide)中,說明對於美國軍隊徽章及標緻之使用方式,並於2007年推出了國防部品牌和商標許可計畫(DoD Branding and Trademark Licensing Program)。在此之後,美國海軍陸戰隊開始向大部分銷售標示有「USMC」T恤之電商,請求不得再銷售標示有相關文字之T恤。回到本事件,美國太空軍發言人表示,對於與Netflix可能存有商標爭議並不知悉,但希望Netflix能延續該節目,以做為良好的宣傳。
日本發布創新治理報告書,主張強化企業等對法規範形成的實質參與日本經濟產業省於2020年7月13日發布「創新治理:實現Society5.0的法規與結構設計(GOVERNANCE INNOVATION: Society5.0の実現に向けた法とアーキテクチャのリ・デザイン)」報告書。其作成背景係依據日本在去(2019)年G20峰會時,基於大阪框架(大阪トラック、Osaka Track)下的「可資信任的資料自由流通機制(Data Free Flow with Trust(DFFT))願景,所提出的創新治理目標。該目標指出,過往的治理模式主要依靠法律規範,但明顯已追趕不及數位化與創新的快速步伐,致生新型態風險無法獲得有效控管、法律可能阻礙創新等問題,因而有必要革新治理模式,以掃除創新活動的障礙。基此,就上述創新治理模式的必要性與方式,日本召集國內外法律、經濟、科技、經濟等各界專家徵求意見進行討論,彙整後作成本報告書。 本報告書主張,應擺脫法規範的設計、法遵與執行,均由國家主導的傳統模式,建立提高企業參與規範擬定與實施程度的治理型態。具體主要包含以下作法: (1)法規範制定層面:規範之制定方向,改以作成價值決定的目的導向為主。至於細節性的行為義務,包含企業如何在數位化的虛擬場域內,透過程式語言等途徑落實上述法目的,則應由該些企業、以及在虛擬場域活動的社群或個人等利害關係人共同參與擬定相關的指引或標準。 (2)法遵層面:如上(1)所述,未來法規範制定將轉為形塑價值與目的為主,不會明確訂定企業的行為義務,而交由企業來擬訂。企業所制定之行為規範能否達成法規範目的,則須仰賴企業主動揭露其法遵方法,供外界檢視。因此,除企業應採用創新手法達成法目的、並對內落實法遵事項的說明外,應運用各種內外部查核機制來控管風險。同時,應著手研發相關技術或措施,讓利害關係人得取用企業之即時資料,以隨時確認企業所採取方法有無達成法遵,實現有效監督。 (3)執法層面:政府應以企業之行為對社會產生影響的程度,作為執法標準。若遭遇AI參與決策而衍生的事故,不應歸責於個人,而應建立獎勵機制,鼓勵企業積極協助究明事故原因。另一方面,亦應推動訴訟與訴訟外紛爭解決機制的線上化(Online Dispute Resolution, ODR),例如共享經濟平台服務的認證機制與標準、就電商平台上發生的小額消費糾紛由平台透過公告罰則等方式抑止與處理糾紛。
美國國土安全部發布「2024人工智慧路線圖」,確保AI安全開發與部署美國國土安全部(Department of Homeland Security, DHS)於2024年3月17日發布「2024人工智慧路線圖」(2024 Artificial Intelligence Roadmap)(下稱AI路線圖),設立三大目標,將偕同旗下機關與產官學研各界合作,確保AI的安全開發與部署,保護國家關鍵基礎設施安全,以強化國家安全。 美國拜登總統於2023年10月30日簽署的第14110號總統行政命令《安全可靠且值得信賴的人工智慧開發暨使用》(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)(下稱AI總統行命令),要求DHS應管理使用於關鍵基礎設施與資通安全的AI、制定全球AI標準並推廣、降低利用AI造成具有大規模殺傷力武器攻擊之風險、保護AI智慧財產權、以及吸引AI領域人才,以促使、加強AI開發與部署等事項。為踐行上述事項,DHS制定AI路線圖,其三大目標如下: (1) 負責任的使用AI以推進國安任務(Responsibly Leverage AI to Advance Homeland Security Mission):透過建置AI基礎建設、建立AI系統測試與評估(Testing and Evaluation, T&E)、推動AI人才培育計畫等行動措施,帶領主管機關負責任的使用AI,以保護國家安全及避免AI對關鍵基礎設施的風險,確保AI於使用過程中係尊重個人隱私、保護公民權利與自由。 (2) 促進AI安全與資安(Promote Nationwide AI Safety and Security):利用AI技術改善與預防關鍵基礎設施之安全與資安風險、制定關鍵基礎設施之AI使用指引、以及成立AI安全與資安委員會(AI Safety and Security Board, AISSB),彙集產官學研各界專家意見。 (3) 透過擴大AI國際合作來引領AI發展(Continue to Lead in AI Through Strong, Cohesive Partnerships):將透過與產官學研各界合作,擴大AI的國際合作,並持續與公眾進行意見交流與分享,推廣AI政策或相關行動措施;DHS亦將持續與參眾議院及其他主管機關匯報AI相關之工作進度與未來規劃,以提升部門AI的透明度,並建立公眾對AI的信任。