資通安全法律案例宣導彙編 第3輯

刊登期別
2004年06月編印
 

相關附件
※ 資通安全法律案例宣導彙編 第3輯, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2371&no=64&tp=1 (最後瀏覽日:2026/03/04)
引註此篇文章
你可能還會想看
英國金融科技未來政策展望

  英國為眾多國家中致力發展金融科技的佼佼者,其相關政府部門-英國金融行為監理總署(Financial Conduct Authority, FCA)早於2016年即推出世界首例金融監理沙盒(Financial Regulatory Sandbox)制度,同時也與英格蘭銀行致力發展開放銀行業務、金融創新項目以及監管措施改革等等。也因為英國為金融科技提供了良好的環境以及養分,使目前英國金融科技佔全球市場總額10%,並有71%的英國公民至少接受一間金融科技公司提供服務;2020年金融科技為英國吸引了41億美元的投資,遠超德國、瑞典、法國、瑞士和荷蘭的總和。   為使英國金融科技持續成長,英國財政大臣於2020年要求針對英國金融科技現況及未來發展進行獨立性研究,該研究並於2021年2月公布。根據研究報告指出,英國金融科技正面臨下述三大問題: 其他國家紛紛仿效英國之成功模式,致使英國金融科技不再具有獨占地位。 英國脫離歐盟導致監管措施的不確定性。 新冠肺炎的來襲,迫使各國均快速發展並靈活運用金融科技,導致英國金融科技優勢地位逐漸喪失。   為了解決上述三大問題,研究報告提出了五項建議計畫: 針對政策以及監管方式之持續進步 雖然英國目前仍處於金融科技政策以及監管的領先地位,但隨著業務、科技等發展,必須確保政策以及監管方式繼續保護金融消費者,同時創造鼓勵創新和競爭的環境。因此建議的方案包含:實施新型態監理沙盒(Scalebox);建立一個數位經濟工作小組以確保政府各部門之一致性;確保金融科技成為貿易政策的一部分。 培養人才 英國需要確保金融科技擁有充足的國內和國際人才供應,以及因為預計在2030年,英國有90%勞動者需要學習新技能,因此也需要培訓和提升現有和未來勞動力技能的方案。因此建議的方案包含:辦理針對成年人進行再培訓和提高技能之短期課程;創建一個新的簽證類型,以提高獲得全球人才的機會;為學習金融科技的學生以及創業者建立媒合平台,設置金融科技人才管道。 建立友善的投資環境 英國雖然透過私募基金成功地為英國金融科技事業募資,但英國仍應該持續加強金融科技事業從初創到公開發行的一系列融資過程,尤其是融資的後期階段。因此建議的方案包含:擴大金融科技獎勵措施以及便利金融科技事業籌資(包含:擴大研發稅收抵免額度、企業投資計畫、風險投資信託);英國應該另行增設一個約10億英鎊之基金供金融科技發展使用;放寬英國上市公司限制(例如:雙層股權結構);創設一個全球金融科技指數以擴大金融科技事業知名度。 與國際合作 雖然英國目前取得金融科技的成功和未來數位貿易崛起的機會,但仍應採取更多的措施用以獲得更多國際支持,這將會成為英國在脫離歐盟後針對國際開放性作出的重大表態。因此建議的方案包含:針對金融科技提出國際行動方案;推動設立金融、創新和技術中心,並成立國際金融科技工作小組;推出國際金融科技認證組合。 英國國內整合 金融科技在國家的支持下,英國各地皆分布大量的金融科技人才。為了保持英國作為金融科技中心的地位,英國須注重規模和支持區域專業,尤其是大學正在創造的重要的智慧財產權。因此建議的方案包含:培育十大金融科技重鎮,而每個重鎮均應設置一個以強化金融科技、培養專家以及增加國家競爭力為目的的三年目標;通過金融、創新和技術中心協調國內金融科技發展策略;通過進一步的投資計畫加快金融科技重鎮的發展以及成長。

英國國家醫療服務體系(NHS)公布國家資料退出(Opt-out)操作政策指導文件

  個人健康資料共享向為英國資料保護爭議。2017年英國資訊專員辦公室(ICO)認定Google旗下人工智慧部門DeepMind與英國國家醫療服務體系(NHS)的資料共享協議違反英國資料保護法後,英國衛生部(Department of Health and Social Care)於今年(2018)5月修正施行新「國家資料退出指令」(National data opt-out Direction 2018),英國健康與社會照護相關機構得參考國家醫療服務體系(NHS)10月公布之國家資料退出操作政策指導文件(National Data Opt-out Operational Policy Guidance Document)規劃病患退出權行使機制。   該指導文件主要在闡釋英國病患退出權行使之整體政策,以及具體落實建議作法,例如: 退出因應措施。未來英國病患表示退出國家資料共享者,相關機構應配合完整移除資料,並不得保留重新識別(de-identify)可能性; 退出權行使。因指令不溯及既往適用,因此修正施行前已合法處理提供共享之資料,不必因此中止或另行進行去識別化等資料二次處理;此外,病患得動態行使其退出權,於退出後重新加入國家資料共享體系;應注意的是,退出權的行使,採整體性行使,亦即,病患不得選擇部分加入(如僅同意特定臨床試驗的資料共享); 例外得限制退出權情形。病患資料之共享,如係基於當事人同意(consent)、傳染病防治(communicable disease and risks to public health)、重大公共利益(overriding public interest)、法定義務或配合司法調查(information required by law or court order)等4種情形之一者,健康與社會照護相關機構得例外限制病患之退出權行使。   NHS已於今年9月完成國家資料退出服務之資料保護影響評估(DPIA),評估結果認為非屬高風險,因此不會向ICO諮詢資料保護風險。後續英國相關機構應配合於2020年5月前完成病患資料共享退出機制之建置。

美國OMB發布M-26-04備忘錄,確立聯邦採購之「無偏見原則」與透明度義務

美國白宮管理與預算辦公室(Office of Management and Budget,以下簡稱OMB)在2025年12月11日發布M-26-04備忘錄(以下簡稱本指引),目標是落實第14319號行政命令「防止聯邦政府中的覺醒AI」(Preventing Woke AI in the Federal Government)。本指引闡述「追求真相」(Truth-seeking)、「意識型態中立」(Ideological Neutrality)兩大「無偏見AI原則」(Unbiased AI Principles),並強制要求聯邦機構在採購大型語言模型(LLM)時,必須將此二原則納入合約條款。 為確保符合規定,本指引要求聯邦機構在進行採購時,應避免強制供應商揭露過於敏感的技術資料(如模型權重),而是採取以下兩層級的資訊揭露架構: 1. 基本透明度要求(Minimum Threshold for LLM Transparency) 各機構於招標階段,應要求供應商提供以下資訊: (1) 可接受的使用政策:界定產品適當與不適當用途的文件。 (2) 模型、系統和/或資料的摘要卡(Model, System, and/or Data Cards):包含訓練摘要、風險緩解措施及基準測試評分。 (3) 終端用戶資源與意見回饋機制:包含用戶教程及針對違反無偏見原則產出的回報管道。 2. 強化透明度門檻(Threshold for Enhanced LLM Transparency) 若機構擬將模型整合至其他軟體或服務中,則需獲取更深入的開發與運作資訊,例如: 1. 預訓練和後訓練(Pre-Training and Post-Training):如影響產出事實性(factuality)的活動、系統提示詞(System Prompts)、以及內容審查過濾器的具體運作。 2. 模型評估:針對政治議題的偏見測試結果與方法論。 3. 模型中嵌入的企業控制(Enterprise-Level Controls): 如可客製化的系統指令或來源引用功能。 4. 第三方對模型的修改:非原廠開發者所施加的額外控制層。 本指引對聯邦行政機構具有行政拘束力。機構必須於2026年3月11日前更新採購政策,並將上述要求納入新舊合約中。值得注意的是,本指引引入了「實質性要求」(Materiality Requirement),即若供應商拒絕針對違反無偏見原則的產出採取糾正措施,將構成合約違約之重要事由,機構得據此終止合約。 觀察美國OMB此次發布的內容,係透過將「意識形態中立」轉化為具體的採購合規要件,OMB利用聯邦政府龐大的購買力,在採購合約中確立供應商的「透明度義務」,OMB指引不僅建立了明確的法遵標竿,更可能發揮示範效應,將政府端的無偏見規範逐步推廣至私營部門,轉化為產業的最佳實踐標準。

拜登政府宣布採取促進負責任AI創新之新行動,以保護美國人民權利與安全

拜登政府於2023年5月4日宣布將採取促進負責任AI創新之新行動,表示公司於部署或公開其產品前,應致力於降低AI風險,並強調風險管理與保障措施的重要性,以防止AI對個人與社會造成潛在危害。此外,拜登總統於2月簽署「透過聯邦政府進一步推動種族平等和支持弱勢群體」行政命令(Executive Order on Further Advancing Racial Equity and Support for Underserved Communities Through The Federal Government),指示聯邦政府機關在設計和使用AI等新技術時,應避免偏見,並保護公眾免受演算法歧視。促進負責任AI創新之新行動包括: 一、投資負責任AI的研發 美國國家科學基金會(National Science Foundation)宣布撥款1.4億美元以啟動7個新的國家AI研究所,未來全美將有25個國家級AI研究所。除有助於促進公私部門之間合作外,將強化AI研發基礎設施、支持多元化AI勞動力發展,及推動氣候、農業、能源、公共衛生、教育與資安等關鍵領域之突破。 二、公開評估現有的生成式AI系統(generative AI systems) Anthropic、Google、Hugging Face、微軟、NVIDIA、OpenAI和Stability AI等領先AI開發商將參與AI系統獨立公開評估,以評估其模型是否符合AI權利法案藍圖(Blueprint for an AI Bill of Rights),及AI風險管理框架(AI Risk Management Framework)所提出之原則與實踐,並使企業及開發人員能就所發現問題,進一步採取解決措施。 三、提出政策引導聯邦政府減輕AI風險及提升AI利用機會 美國行政管理預算局(Office of Management and Budget)宣布,將於2023年夏季發布有關聯邦政府機關各部門使用AI系統之政策指引草案,並徵詢公眾意見。

TOP