本文為「經濟部產業技術司科技專案成果」
經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。
歐盟通過《外國補貼規則》並於2023年1月正式生效2023年1月12日,歐盟《外國補貼規則》(Foreign Subsidies Regulation, FSR)正式生效。其旨為歐盟欲有效打擊因領有外國補貼而具不公平競爭優勢之企業,以保護歐盟市場公平競爭。 2021年5月5日,歐盟執委會(European Commission)提出《外國補貼規則》草案以防範上述企業在歐盟市場進行危害競爭之行為。該規則於2022年11月分別經歐洲議會(European Parliament)與歐盟理事會(European Council)通過後,同年12月23日刊載於歐盟官方公報,並於2023年1月正式生效。 歐盟執委會於2023年2月6日公布《外國補貼規則》執行細則草案,詳細規範踐行企業併購及參與公共採購程序通知義務所應提交之資訊、調查期程及受調查企業之權利等。根據新規,執委會可調查非歐盟國家之企業財務補助(financial contribution)情形,就調查結果決定是否限制其在歐盟市場從事企業併購、參與公共採購以及其他可能影響市場競爭之經濟活動。 若併購一方的歐盟營業額達5億歐元(€500 million),且外國注資達5,000萬歐元(€50 million),相關企業須向歐盟執委會報告。另外,執委會有權解除未履行通知義務但已執行之交易。而公共採購標案方面,標案金額預估達2.5億歐元(€250 million),且參與投標之企業受外國補貼達400萬歐元(€4 million),該企業即應通知執委會,執委會得禁止接受補貼之企業或違規者得標。 歐盟執委會將考量利害關係人意見回饋後預計自2023年7月12日起實施,而部分通知義務將自同年10月12日起實施。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。 為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。
美國總統簽署通過2010年二十一世紀通訊和視訊無障礙法美國總統歐巴馬於2010年10月8日簽署通過2010年二十一世紀通訊與視訊無障礙法(Twenty-First Century Communications and Video Accessibility Act of 2010),將使美國約3600萬之聽、視障人士能無障礙的參與網路時代。該法案係增進身心障礙人士無障礙使用通訊傳播服務之保障,因應新興科技之發展,修訂既有法規的不足。由於新興科技的發展擴大身心障礙者使用科技的障礙與落差。同時,美國電信法放鬆管制的趨勢,將通訊服務區分為「電信服務」與「資訊服務」,使新興通訊服務因歸屬於「資訊服務」而不受管制。 在既有法規出現不足的情形下,美國國會於2010年8月通過該法,因應美國身心障礙人士使用新興通訊傳播工具與服務之障礙,修訂了許多內容: • 使具備接取網際網路能力之智慧手機,改進用戶界面使視障人士能易於使用。 • 透過口述影像之要求,以聲音描述媒體之非對白內容,如場景變化、表情、事件等,使視障人士,更充分地欣賞電視媒體內容。 要求節目指南和功能選單的設計,更易於視障人士使用。透過隱藏性字幕的要求,對媒體內容更多細節的描述,使聽障人士亦能充分瞭解電視節目內容。要求的控制接收或播放媒體之設備,應有易用之設計,如按鈕或專用圖示,使字幕或口述影像之功能能易於開啟或關閉。擴展進階通訊服務之定義,包含VOIP、及時訊息(如MSN)及視訊會議。並要求這些進階通訊服務能易於被聽、視障人士使用。 對低收入的且具有聽、視雙重障礙人士,提供高達 1000萬美元,補助通訊設備接取電話及網際網路,使這些人能夠更充分地參與社會。該法將能確保身心障礙人士能無障礙使用通訊工具、獲取資訊與視訊媒體內容,無論何種形式(文字、視訊、語音),也無論傳輸媒介(有線、無線、衛星、IP網路),建構無障礙之通訊傳播環境。