新加坡金融管理局(MAS)於 2023 年中旬啟動「MindForge 計畫」,旨在協助金融機構強化其人工智慧(AI)風險管理能力。該計畫於2026年3月20日完成第二階段,並發布由MAS聯合24家領先銀行、保險公司與資本市場公司等產業夥伴共同開發的「人工智慧風險管理工具包」。該工具包內含「AI風險管理營運手冊」(下稱「營運手冊」)與「AI風險管理實施案例」(下稱「實施案例」),提供實務資源以管理涵蓋「傳統AI」、「生成式AI」及「新興代理型AI」技術的相關風險,確保產業能安全且負責任的導入AI。「營運手冊」依據MAS的監理期望,將AI 風險管理框架分為四大核心:一、範圍與監管:建立AI治理框架並釐清AI監督的角色與責任。二、AI風險管理:透過組織的系統、政策與程序,識別AI應用情境,進行風險重大性評估,並建立AI盤點清單。三、AI生命週期管理:實施AI應用完整生命週期的控制措施。四、促成因素:發展組織能力、基礎設施與資源,以確保能持續支持負責任的AI應用。「實施案例」則收錄如星展銀行(DBS)及瑞士寶盛(Julius Baer)等機構的AI風險管理實務。未來,MAS 將於「BuildFin.ai」倡議下成立專責小組,持續開發建構管理新興技術風險的框架。 相較於新加坡著重建立全方位治理架構,資訊工業策進會科技法律研究所創意智財中心(下稱「資策會科法所創智中心」)於同年 2 月發布之「金融業人工智慧(AI)風險管理實務指引」,則更強調將風險控管「整合」至既有流程中,透過與業務流程的結合實踐韌性管理。該指引奠基於「人工智慧基本法」,並進一步連結「台灣智慧財產管理規範(TIPS)」驗證角度,協助機構精準掌握應用情境並具體化風險。透過將管控機制立基於資安、資訊及智財三大支柱,降低法遵成本與業務衝擊,並藉由分階段與分級管理,引導金融機構從核心防護逐步深化管控機制。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
藥品專利聯盟與藥廠達成首件授權協議國際藥品採購機制(UNITAID)為協助開發中國家取得價格可負擔的人類免疫缺陷病毒(Human Immunodeficiency Virus,HIV)及愛滋病(Acquired Immuno-deficiency Syndrome,AIDS)用藥,2009年12月時即宣布成立「藥品專利聯盟基金會」(Medicines Patent Pool Foundation,MPPF),提供5年約442萬美元作為促進各大藥廠投入專利於所組之藥品專利聯盟(Medicines Patent Pool,MPP)之經費。去(2010)年7月,MPPF在瑞士登記成立後,立即展開與藥廠協議將其專利授權給MPP,以及同意MPP再授權給其他藥廠生產製造相關藥品之行動。 經過近1年努力,今(2011)年7月,MPPF終於與第一家美國藥廠Gilead Sciences達成授權協議,將旗下的Tenofovir(此為B型肝炎治療用藥)、Emtricitabine、Cobicistat、Elvitegravir及前述藥品固定劑量之單一藥丸產品Quad,授權給MPP再利用。接下來,MPP預計還要繼續向Abbott Laboratories、Boehringer-Ingelheim、Bristol-Myers Squibb、Merck & Co、Roche、Tibotec / Johnson & Johnson及Viiv Healthcare等藥廠爭取授權。 根據Gilead藥廠授權協議,MPP得以無償、非專屬、不可轉讓方式製造、使用、邀約販賣及販賣前述藥品,並將之再授權給印度學名藥廠;合法的被再授權人(Sublicensee)得出口及販賣其藥品,並支付3-5%權利金,但被再授權人若是為12歲以下兒童病患開發液體狀、可分散之兒科醫學劑型配方時,則可例外無須支付權利金。雖然Gilead藥廠之授權協議在內容上仍有諸多值得檢討之處,例如只限授權給印度學名藥廠、提供臨床試驗階段之Cobicistat、Elvitegravir及 the Quad藥品,雖確實可使開發中國家最快速度享受到最新的有效藥,但不免會引起是否涉及開發中國家新藥人體試驗之揣測。但無論如何,MPP成功獲得Gilead藥廠之授權,除打破外界先前對於MPP能否實際說服商業藥廠為公益目的加入之質疑,藉由雙方所訂之對象、範圍、權利金與例外等授權條件,更能明確看出MPP日後實際運作將採之方式。
簡介美國「消費者網路視訊選擇法」草案 歐盟執委會發布指引以因應《人工智慧法》「禁止的人工智慧行為」條文實施歐盟執委會於2025年2月4日發布「關於禁止的人工智慧行為指引」(Commission Guidelines on Prohibited Artificial Intelligence Practices)(下稱「指引」)」,以因應歐盟《人工智慧法》(AI Act,下稱AIA)第5條關於「禁止的人工智慧行為」之規定。該規定自2月2日起正式實施,惟其內容僅臚列禁止行為而未深入闡釋其內涵,執委會特別制定本指引以避免產生歧義及混淆。 第5條明文禁止使用人工智慧系統進行有害行為,包括:利用潛意識技術或利用特定個人或群體之弱點進行有害操縱或欺騙行為、實施社會評分機制、進行個人犯罪風險預測、執行無特定目標之臉部影像蒐集、進行情緒識別分析、實施生物特徵分類、以及為執法目的而部署即時遠端生物特徵識別系統等。是以,指引就各禁止事項分別闡述其立法理由、禁止行為之具體內涵、構成要件、以及得以豁免適用之特定情形,並示例說明,具體詮釋條文規定。 此外,根據AIA規定,前述禁令僅適用於已在歐盟境內「投放市場」、「投入使用」或「使用」之人工智慧系統,惟對於「使用」一詞,並未予以明確定義。指引中特別闡明「使用」之定義,將其廣義解釋為涵蓋「系統投放市場或投入使用後,在其生命週期任何時刻的使用或部署。」 指引中亦指出,高風險AI系統的特定使用情境亦可能符合第5條的禁止要件,因而構成禁止行為,反之亦然。因此,AIA第5條宜與第6條關於高風險AI系統的規定交互參照應用。 AIA自通過後,如何進行條文內容解釋以及法律遵循義務成為各界持續討論之議題,本指引可提升AIA規範之明確性,有助於該法之落實。