美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括:
1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。
2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。
3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。
4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。
5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。
6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。
7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。
8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。
9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。
10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。
11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。
12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。
為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。
美國衛生部隸屬之醫療資訊科技標準委員會(Health IT Standards Committee)為了因應「2009年經濟復甦暨再投資法」(America Recovery and Reinvestment Act, “ARRA”)的通過,制定了新的電子醫療紀錄的隱私、安全標準,以擴大保護電子醫療紀錄的使用安全。 這次制定的電子醫療紀錄的隱私、安全標準,將透過具有足夠防護能力的醫療資訊科技系統標準,來保護電子醫療紀錄的交換,並且擴大適用範圍到醫療照護廠商與提供者,要求其必須在2011年前達到幾項資訊的使用控制標準,包括「醫療保險可攜與責任法」(Health Insurance Portability and Accountability Act, “HIPAA”)與「加密促進標準」(Advanced Encryption Standard)之相關規定,以完備個人電子醫療資訊的保護網。 在此次訂立的標準之下,任何人員或是應用程式欲使用與接近電子醫療紀錄,應符合法律所授予的接近與使用之要件。同時,處理個人醫療資訊的系統,也必須具備對個人醫療資訊加密與解密的能力,以保障個人醫療資訊的安全與完整。除了以上的要求,這些標準也要求相關的適用機構,必須在2013年以前完成符合病歷交換格式(HL7)的使用接近控制、安全宣示標記語言(Security Assertion Mark-up Language, “SAML”)、網路服務認證(Web Service Trust, “WS-Trust”)以及促進資訊標準建置組織(Organization for the Advancement of Structured Information Standards, “OASIS”)的機制,以保障醫療資訊的安全。
加拿大運輸部發布自駕系統測試指引2.0,為建立全國一致的實驗準則加拿大運輸部(Transport Canada)於2021年8月6日發布「自駕系統測試指引2.0」(Guidelines for Testing Automated Driving Systems in Canada Version 2.0),建立全國一致的最佳實踐準則,以指導配有自動駕駛系統(Automated driving systems, ADS)之車輛能安全地進行實驗。根據從國內外測試活動中取得的經驗及教訓,對安全措施進行更新,內容包括: 一、實驗前的安全考量:探討在開始實驗之前應考量的安全注意事項,包括(1)評估實驗車輛安全性、(2)選擇適當的實驗路線、(3)制定安全管理計畫、(4)安全駕駛員與培訓、(5)民眾溝通及提高意識、(6)確保當地執法單位及緊急應變人員瞭解實驗活動。 二、實驗中的安全管理:討論在實驗過程中應重新檢視的安全考量,包括(1)使用分級方法進行測試、(2)調整安全管理策略、(3)制定事件和緊急應變計畫與步驟、(4)安全駕駛員的角色及職責、(5)遠端駕駛員和其他遠端支援活動的安全考量、(6)在沒有安全駕駛員的情況下進行實驗、(7)與其他道路使用者的安全互動、(8)與乘客的實驗、(9)定期報告及資訊共享。 三、實驗後應注意之事項:在結束其測試活動後應考量的因素,包括報告實驗結果、測試車輛及其部件的出口或處置。如果測試車輛是臨時進口的,則在測試完成後可能需要將其銷毀或捐贈。 該測試指引僅適用於臨時實驗,而非永久的市場部署,加拿大運輸部將繼續更新該測試指引及其他文件和工具,以支持加拿大道路使用者的安全。
LV賣炸雞?南韓炸雞店仿作LV名稱及圖騰遭控商標侵權一名南韓金姓男子以「LOUIS VUITON DAK」為名開設炸雞店,於2015年9月遭法國精品品牌Louis Vuitton Malletier(以下簡稱LV)提起商標侵權訴訟,法院判決金姓男子應停止使用與LV近似的商標和圖騰。近日(2016年4月)法院認為金姓男子未遵從禁令,仍持續使用與LV商標近似的店名,判決金姓男子賠償1450萬韓元(約41萬元台幣)。 金姓男子以韓文全雞「tongdak」的諧音,將炸雞店命名為「LOUIS VUITON DAK」,並於炸雞外帶餐盒及紙巾上,印製使用與LV商標圖騰極為相似的圖案。此舉引來LV的不滿,於2015年9月向南韓法院提起訴訟,認為金姓男子使用LV的近似名稱販賣炸雞,將對LV的品牌形象帶來嚴重損害。2015年10月,法院要求金姓男子立即停止使用近似LV的商標圖騰及店名,否則將處以一日50萬韓元的罰款。金姓男子後將店名改為「chaLouisvui tondak」,然而LV仍認為該店名與其商標有部分雷同。法院同意LV的主張,認為金姓男子雖更改了店名拼法,但其讀音仍與「LOUIS VUITON DAK」幾乎相同,因此以一日50萬韓元的罰款金額,計算使用新店名的29日,判決金姓男子須向LV賠償1450萬韓元。 【本文同步刊登於TIPS網站(http://www.tips.org.tw)】
德國交通部與歐洲道路安全資料工作組簽署多方協議,透過車聯網分享交通狀況資料以提升道路安全德國聯邦交通及數位基礎設施部(Bundesministerium für Verkehr und digitale Infrastruktur, BMVI)於2020年12月2日公布與道路安全資料工作組(Data Task Force for Road Safety)成員簽署多方協議,以促進交通資料於道路維運單位、聯網車、智慧基礎設施間傳輸交換,進而透過最新技術識別道路危險狀況,以提升交通安全。 道路安全資料工作組係由歐盟成員國、車輛製造商、相關應用服務提供商所組成的公私合營夥伴關係,其任務為透過政府與產業相關利益者之合作,促進道路安全性資料可跨品牌和跨國界共享,並於公平可靠的合作夥伴關係下,促進公平競爭。 而在多方協議中,歐盟成員國,道路交通管理單位,汽車製造商和供應商以及地圖服務提供商等成員,承諾進行長期資料交換,並於協議中定義如何在安全相關交通資訊(Safety Related Traffic Information, SRTI)生態系統內,以公平、可靠的方式近用相關資料,並規定合作夥伴於SRTI價值鏈中應扮演的角色與責任,和透過分享安全相關的的資料,進而提供安全性服務。而在簽署本協議前,已成功完成可行性研究,在2019年6月至2020年10月間,不斷地測試SRTI系統並交換共數百萬筆資料,包括危險事故現場、暫時性濕滑路面、視野受限、特殊天候狀況等資訊。而在初步測試報告指出,透過上述資料交換,可發出相關危險交通狀況警告,能迅速有效因應各狀況作出適當的決策。