美國國家安全局(National Security Agency, NSA)於2022年11月10日發布「軟體記憶體安全須知」(“Software Memory Safety” Cybersecurity Information Sheet),說明目前近70%之漏洞係因記憶體安全問題所致,為協助開發者預防記憶體安全問題與提升安全性,NSA提出具體建議如下: 1.使用可保障記憶體安全之程式語言(Memory safe languages):建議使用C#、Go、Java、Ruby、Rust與Swift等可自動管理記憶體之程式語言,以取代C與C++等無法保障記憶體安全之程式語言。 2.進行安全測試強化應用程式安全:建議使用靜態(Static Application Security Testing, SAST)與動態(Dynamic Application Security Testing, DAST)安全測試等多種工具,增加發現記憶體使用與記憶體流失等問題的機會。 3.強化弱點攻擊防護措施(Anti-exploitation features):重視編譯(Compilation)與執行(Execution)之環境,以及利用控制流程防護(Control Flow Guard, CFG)、位址空間組態隨機載入(Address space layout randomization, ASLR)與資料執行防護(Data Execution Prevention, DEP)等措施均有助於降低漏洞被利用的機率。 搭配多種積極措施增加安全性:縱使使用可保障記憶體安全之程式語言,亦無法完全避免風險,因此建議再搭配編譯器選項(Compiler option)、工具分析及作業系統配置等措施增加安全性。
Blackberry向法院起訴指控Snap專利侵權2018年4月3日,Blackberry Limited(下稱Blackberry)向美國加州地方法院起訴(18-cv-02693),指控Snap Inc.(下稱Snap)的應用程式Snapchat,侵犯其包括行動裝置地圖改善技術、廣告技術和行動裝置的使用者介面改善技術共6項專利權。Blackberry指出Snapchat的地圖功能侵犯其關於定義與其他活動中用戶相對位置的專利;廣告功能侵犯其推播資訊至行動裝置的專利;通知點(Notification Dot)的未讀訊息計數顯示,侵犯其關於預覽新事件的專利。 Blackberry在今年3月也曾對Facebook提起訴訟,指控其社交平台Whatsapp和Instagram侵犯了Blackberry的專利權。對Snap提出的侵權訴訟中涉及的兩件專利US 8,209,634(下稱'634專利)和US 8,301,713(下稱'713專利),也同樣出現在對Facebook提起的訴訟案件。'634專利是關於通知點(Notification Dot)計數顯示的專利,而'713專利則是關於在傳訊對話中顯示時間資料的專利。 Snapchat是Snap在2011年9月發表的即時通訊應用程式,比Blackberry的通訊應用程式BlackBerry Messenger(下稱BBM)發表時間晚了6年。Blackberry認為其通訊應用程式,至今已成功使得全球有數十億的消費者在行動裝置上使用即時通訊。Snap使用Blackberry的智慧財產權並與Blackberry在即時通訊領域中競爭,分散了BBM的使用者,轉而選擇使用Snapchat,使Snap獲得可觀的不法利益。Blackberry因此向法院主張Snap應彌補其侵權行為對Blackberry所造成的損失。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
美國情報體系發布「情報體系運用人工智慧倫理架構」美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。
資通安全法律案例宣導彙編 第3輯