美國聯邦貿易委員會(Federal Trade Commission, FTC)於2013年8月29日對位於亞特蘭大的一家小型醫療測試實驗室LabMD提出行政控訴,指控LabMD怠於以合理的保護措施保障消費者的資訊(包括醫療資訊)安全。FTC因此依據聯邦貿易委員會法(Federal Trade Commission Act, FTC Act)第5條展開調查,並要求LabMD需強化其資安防護機制(In the Matter of LabMD, Inc., a corporation, Docket No. 9357)。
根據FTC網站揭示的資訊,LabMD因為使用了點對點(Peer to Peer)資料分享軟體,讓客戶的資料暴露於資訊安全風險中;有將近10,000名客戶的醫療及其他敏感性資料因此被外洩,至少500名消費者被身份盜用。
不過,LabMD反指控FTC,認為國會並沒有授權FTC處理個人資料保護或一般企業資訊安全標準之議題,FTC的調查屬濫權,無理由擴張了聯邦貿易委員會法第5條的授權。
本案的癥結聚焦於,FTC利用了對聯邦貿易委員會法第5條「不公平或欺騙之商業行為(unfair or deceptive acts)」的文字解釋,涉嫌將其組織定位從反托拉斯法「執法者」的角色轉換到(正當商業行為)「法規與標準制訂者」的角色,逸脫了法律與判例的約束。由於FTC過去曾對許多大型科技公司(如google)提出類似的控訴,許多公司都在關注本案後續的發展。
日本於2021年7月13日公布〈智慧財產推進計畫2021〉。〈智慧財產推進計畫〉為智慧財產戰略本部自2003年開始,每年持續修訂至今的行動計畫。今年最新公布的〈智慧財產推進計畫2021〉,指出日本企業在智財.無形資產的投資活動相較於其他國家有嚴重停滯之現狀,並提出今後智財戰略的7項重點施政: 促進智財、無形資產的投資及運用:藉由企業揭露自身的經營戰略,吸引投資者關注智財並投資,藉此建立智財交易環境。 推動「運用標準戰略」:數位化使產業結構改變,從傳統金字塔型價值鏈轉為以功能連結的階層模式;此轉變讓標準戰略成為建立市場競爭優勢不可或缺的手段。 建立促進數據活用的環境:例如制定跨領域合作的數據流通基礎方針,或是創建數位交易市場,將數據交易的價值可視化,藉此吸引投資。 建立著作權集中許可制度:為解決數位化所產生的權利處理成本問題,需建立可以快速處理龐大且多樣化的著作權集中許可制度。 強化智財權在初創或中小企業、農業領域的運用:例如提供企業智財布局的諮詢窗口、建立農業技術的商業機密保護制度。 強化支援智財運用的體制、營運和人才基礎:例如商標審查效率強化、實現各級學校智財教育的普及。 重建COOLJAPAN戰略:因應疫情後的社會變化,追加建立數位技術的運用,以確保COOLJAPAN戰略持續發展。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
日本提出未來車聯網社會之三大威脅及促進實現車聯網社會策略日本總務省之實現車聯網社會研究會(Connected Car 社会の実現に向けた研究会,下稱車聯網研究會),於2017年8月4日公布研究成果。車聯網研究會指出未來車聯網將面對①遠距離操作、網絡攻擊之威脅;②資料(Data)真實性之威脅;③隱私權之保護等三大威脅。針對遠距離操作、網絡攻擊之威脅,在汽車端及網路端皆應提出防止威脅之策略;在確保資料真實性方面,需建立機制,以防止資料中途被篡改;未來在車輛雲端資料之應用,應以隱私權保護為前提,始促進車輛資料之利用及活用,以保護相關人之隱私權。 車聯網研究會在促進實現車聯網社會策略中,希望透過①聯網計畫(Connected Network プロジェクト)、②互聯資料計畫(Connected Data プロジェクト)、③互聯平台計畫(Connected Platform プロジェクト)等三個計畫,共同建立推廣實證平台,以確立及實證必要之技術,建立資料利用及活用之模式及環境,架構開放性合作模式,並確保隱私及安全性。進而建設高度可靠性之無線通信網路、透過創新產業和商業模式促進資料之利用、創新環境的發展,達到解決日本之社會問題、實踐便利與舒適之生活、國家競爭力之強化與確保等車聯網社會三大目標,最終落實安全、安心、舒適的車聯網社會。
美國白宮呼籲採取行動,打擊利用AI生成影像進行之性虐待行為美國白宮於2024年5月23日公開呼籲採取行動以打擊利用AI生成性影像,及未經當事人同意傳播真實影像的性虐待行為。此次呼籲源自白宮「解決線上騷擾與虐待問題工作小組」(Task Force to Address Online Harassment and Abuse)相關行動、總統第14110號行政命令-「安全、可靠且可信任之AI開發及利用」(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence),以及尖端AI公司自願管理AI風險之承諾(Voluntary AI Commitments)。 白宮指出,迄今為止生成式AI已淪為性虐待的主要工具,同時,涉及未經同意散布或威脅散布私人性影像,亦將對受害者造成嚴重的心理傷害。白宮呼籲相關利害關係人透過自願性承諾,預防與減輕性虐待影像之影響,如: (1)阻止性虐待影像獲利: 對於從事性虐待影像業務的網站或應用程式,支付平臺與金融機構可限制或拒絕對其提供支付服務。 (2)停止創建深偽性虐待影像 : 對於可透過AI生成性影像之網路服務或應用程式,雲端服務供應商與應用程式商店得減少此類網路服務或應用程式運作。此外,應用程式商店可要求應用程式開發人員採取措施,防止使用者製作非經當事人同意的AI生成性影像。 (3)防止散播性虐待影像: 應用程式與作業系統開發人員可啟用技術保護措施,以保護數位裝置上儲存之內容,防止未經當事人同意分享其影像。 (4)支援並參與為受害者提供有效補救措施之服務: 平臺與利害關係人可選擇與相關組織合作,使性虐待影像受害者可輕鬆且安全地從線上平臺中刪除未經同意之內容。此外,白宮亦呼籲國會修訂於2022年重新授權之「婦女暴力防制法」(Violence Against Women Act Reauthorization),延續並加強原有法律保護效力,同時為AI生成之性虐待影像的受害者提供關鍵援助資源。
新加坡網路安全局發布人工智慧系統安全指南,以降低AI系統潛在風險新加坡網路安全局(Cyber Security Agency of Singapore, CSA)於2024年10月15日發布人工智慧系統安全指南(Guidelines on Securing AI Systems),旨在強化AI系統安全,協助組織以安全之方式運用AI,降低潛在風險。 該指南將AI系統生命週期分成五個關鍵階段,分別針對各階段的安全風險,提出相關防範措施: (1)規劃與設計:提高AI安全風險認知能力,進行安全風險評估。 (2)開發:提升訓練資料、模型、應用程式介面與軟體庫之供應安全,確保供應商遵守安全政策與國際標準或進行風險管理;並辨識、追蹤及保護AI相關資產(例如模型、資料、輸入指令),以確保AI開發環境安全。 (3)部署:適用標準安全措施(例如存取控制、日誌記錄),並建立事件管理程序。 (4)運作與維護:持續監控AI系統的輸入和輸出,偵測異常與潛在攻擊,並建立漏洞揭露流程。 (5)壽命終期:應根據相關行業標準或法規,對資料與模型進行適當之處理、銷毀,防止未經授權之存取。 CSA期待該指南發布後,將有助於預防供應鏈攻擊(supply chain attacks)、對抗式機器學習攻擊(Adversarial Machine Learning attacks)等安全風險,確保AI系統的整體安全與穩定運行。