經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段:
1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。
2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。
3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。
4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。
隨著4G開台,各家電信業者為獲取用戶數,爭相推出無限上網吃到飽方案,然在數據流量呈現爆炸性成長下,電信業者之收益卻持續下探。為解決此問題,本研究嘗試提出建議方案,期望實現我國對數位經濟之願景。
2025年美國法院以「後設資料」作為審理AI深偽數位證據案件之重點2025年9月Mendones v. Cushman and Wakefield, Inc.案(下稱Mendones案),面對生成式AI與深偽(deepfakes)對數位證據真實性的威脅,美國法院特別提到針對後設資料(metadata)的審查。 基於Mendones案原告提交9項涉嫌使用生成式AI的數位證據,其中證詞影片6A與6C影片具備「人物缺乏臉部表情、嘴型與聲音不相符,整體表現像機器人一樣」且「影片內容循環撥放」等AI深偽影片之典型特徵,法院懷疑原告舉證的數位證據為AI深偽影片。 因此,法院要求原告須提出該影片的後設資料,包含文件格式、創建/修改日期、文件類型、拍攝影片的快門速度等客觀資訊。 法院表示,原告提交的後設資料不可信,因為包含許多通常不會出現在後設資料的資訊(非典型的資訊),例如:著作權聲明。且法院進一步指出,許多非典型的資訊被放在不相關的欄位,例如:Google地圖的URL網址、電話號碼、GPS座標及地址等被放在「音樂類型」(musical genre)欄位內。因此法院懷疑,前述「非典型之後設資料」是被有存取文件與編輯權限的人添加的「後設資料」。 原告則主張,其透過iOS 12.5.5版本作業系統的Apple iPhone 6 Plus手機拍攝影片6A。法院指出,直到iOS 18版本作業系統,iPhone才推出可用於生成深偽影片的新功能「Apple Intelligence」相關技術,且該版本需要使用iPhone 15 Pro或更新的手機機型,因此法院發現技術上的矛盾。 法院認為,本案生成式AI影片已超越提交虛假引文(Fictitious Citations,即過往案例曾出現過律師提出AI虛構的判例之情況)的範疇。在訴訟中使用深偽證據,嚴重影響了法院的審理與公眾對司法的信任,並增加法院評估該證據是否為深偽之成本。因此,法院採取嚴厲的永久駁回訴訟(dismissed with prejudice),以表示對企圖以深偽資料為證據的行為持「零容忍」態度。 Mendones案展現法院審理AI深偽數位證據的細節,如「審視後設資料之內容準確、完整」為法院確認數位證據真實性的重要手段。 面對AI時代下數位證據的挑戰,我國司法院、法務部、臺灣高等檢察署、內政部警政署及法務部調查局共同推動之「司法聯盟鏈共同驗證平台」,以「b-JADE證明標章」結合區塊鏈技術。「b-JADE證明標章」確保鏈下管理數位資料原檔的機制,以及鏈上的「存證資料」包含「與數位原檔資料最終版本連結的『必要後設資料』」、雜湊值及時戳,如能妥適運用司法聯盟鏈進行證據「驗真」程序,將有助於強化數位信任。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
美國推動L Prize獎勵創新節能照明產品技術研發美國能源部依據「2007年能源獨立與安全法案」(The Energy Independence and Security Act (EISA) of 2007)第655條規定,設立Bright Tomorrow Lighting Prize (L Prize)競賽,這是第一個由美國政府所發起的科技競賽。此一規定係依據「2005年能源政策法」(Energy Policy Act of 2005)第1008條而來,賦予能源部對於與其政策目的相關、有重大貢獻的科技研發或商業應用,得設置競賽活動並提供獎金。因此,為了促進照明產業的發展,而固態照明(solid-state lighting)科技是具有潛力能減少照明能源的使用以達解決氣候變遷的方式之一,因此能源部希望在固態照明技術的研發上扮演催化者的角色,藉由此一競賽來刺激研發超效能固態照明產品以取代傳統照明設備。 此一規定對工業的發展造成挑戰,因為將會取代兩種日常生活所使用的產品:60W白熾燈泡與PAR 38滷素燈泡。於2008年5月首先展開的是60W白熾燈泡領域,因為此種燈泡是消費者最普遍使用的,約佔美國國內白熾燈泡市場的一半。要獲得此獎項的要求,必須該替代產品要能使用低於10W的電力,節省83%的能源。該競賽已於2011年8月結束,由Philips Lighting North America所研發的高效能LED產品獲得,除頒發一千萬美元的獎金外,亦已與聯邦政府簽署採購合約。該產品預計於2012年春於零售商店上架。 L Prize的第二階段競賽於2012年3月展開,希望針對PAR 38滷素燈泡領域,鼓勵企業研發LED替代產品,來取代通常使用於零售商店或戶外安全照明的聚光燈和探照燈等傳統PAR 38滷素燈泡。此一競賽獎勵對於全美的照明產業是相當好的挑戰,不僅能研發出創新、具有高效能的產品,亦能提升美國製造業的競爭力。目前全美國約有九千萬個PAR 38滷素燈泡,若能以高效能燈泡取代,能源部預估每年可以節省約11terawatt-hours的電力,並可減少七百萬噸的碳排放。 要贏得L Prize的產品必須通過嚴格的測試,包括其性能、品質、壽命、價格及是否適合量產等。由於在PAR 38滷素燈泡領域,至少必須製造50%的LED燈泡,且所有的組裝都須在美國完成,因此同時亦提供相當多的工作機會。
歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。