數位歐洲計畫(Digital Europe Programme)為歐盟執委會2018年6月提出的策略規畫,已於2019年4月17日由歐洲議會通過;預計2021至2027年間,歐盟將投入92億歐元用於發展高效能運算、人工智慧、網路安全和數位技能培育等領域。數位歐洲計畫目標是確保所有歐洲民眾皆能擁有應對數位挑戰所需的技能、基礎建設及相應的數位監管框架,屬於歐盟發展數位單一市場政策的一部分,預估將創造400萬個就業機會、推動4150億歐元的經濟成長,提升歐盟整體國際競爭力。歐盟為關鍵數位技術提供92億歐元科技預算分配:
(1)27億歐元用於高效能運算(預計在2022至2023年建立高效能運算及數據處理能力,2026至2027年將技術導入高階設施設備)。
(2)25億歐元投入人工智慧(支持企業及公部門使用AI、建立安全便利且能儲存大量數據的運算系統、鼓勵會員國相互合作進行AI測試)。
(3)20億歐元用於網路安全技術(採購先進網路安全設備及數位基礎設施、拓展網路安全知識與技能、優化歐盟整體網路安全系統)。
(4)7億歐元投入數位技能培育(加強中小企業短期數位培訓課程、IT專業人員長期訓練、青年企業家培訓)。
(5)13億歐元用於推廣使用數位技術(鼓勵中小企業運用先進數位技術、建構數位創新中心、關注新興技術發展)。
本文為「經濟部產業技術司科技專案成果」
美國財政部外國資產控制辦公室(The US Department of the Treasury’s Office of Foreign Assets Control, OFAC)於2021年9月21日更新並發布了與勒索軟體支付相關之制裁風險諮詢公告(Updated Advisory on Potential Sanctions Risks for Facilitating Ransomware Payments)。透過強調惡意網絡活動與支付贖金可能遭受相關制裁之風險,期待企業可以採取相關之主動措施以減輕風險,此類相關之主動措施即緩減風險之因素(mitigating factors)。 該諮詢認為對惡意勒索軟體支付贖金等同於變相鼓勵此種惡意行為,故若企業對勒索軟體支付,或代替受害企業支付贖金,未來則有受到制裁之潛在風險,OFAC將依據無過失責任(strict liability),發動民事處罰(Civil Penalty制度),例如處以民事罰款(Civil Money Penalty)。 OFAC鼓勵企業與金融機構包括涉及金錢存放與贖金支付之機構,應實施合規之風險管理計畫以減少被制裁之風險,例如維護資料的離線備份、制定勒索事件因應計畫、進行網路安全培訓、定期更新防毒軟體,以及啟用身分驗證協議等;並且積極鼓勵受勒索病毒攻擊之受害者應積極聯繫相關政府機構,例如美國國土安全部網路安全暨基礎安全局、聯邦調查局當地辦公室。
歐盟執委會同意德國全面開放寬頻市場在歐盟公布電子通訊網路的規範架構後,德國電信主管機關聯邦網路局Bundesnetzagentur(BNetzA)於2005 年10月11日提出寬頻接取批發市場的規劃草案,提案內容包含顯著市場力量(SMP)及寬頻網路市場的定義,不過卻將超高速網路接取(very high-speed internet access)排除在寬頻接取市場的定義之外,由於此將涉及德國在流量接取(bitstream)及寬頻接取市場的有效競爭,以及有可能影響具有顯著市場力量的德國電信公司(Deutsche Telekom)與後進電信業者建置VDSL基礎設施或提供寬頻多媒體服務的意願。因此此項草案在送交資訊社會媒體執委會後,引發了諸多爭論。多數委員認為如未將VDSL列入寬頻接取批發市場的定義中,將會導致其他業者無法以同一立足點與德國電信競爭。在BnetzA將VDSL列入市場定義,並允以流量作為批售基礎而重提規劃案後,歐盟執委會於2005年12月23日通過決議,同意德國的電信主管機關聯邦網路局Bundesnetzagentur(BNetzA)全面開放含VDSL在內的高速寬頻網路市場。
全美各州醫療委員會聯合會發布人工智慧(AI)治理指引,並要求醫師為AI之利用結果負最終責任全美各州醫療委員會聯合會(The Federation of State Medical Boards, FSMB)於2024年4月發布「引導人工智慧以負責任與符合倫理方式融入臨床實務」(Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice)指引,明確概述醫師於利用AI協助提供照護時可採取之步驟,以履行其倫理與專業職責,期能藉此降低對患者造成傷害之風險;本指引之特色在於,其要求醫師為AI之利用結果負最終之責任。 FSMB 向各州醫療委員會與其他利害關係人所提供之原則與建議如下,以支持對包含AI之臨床照護進行負責任與符合倫理之監管: (1)透明度與揭露(Transparency and Disclosure): 應要求維持於醫療照護領域使用AI之透明度;各州醫療委員會應制定明確之指導方針,向患者揭露AI之使用情況,其有助於患者與醫師之理解,但不會造成不必要之行政負擔;FSMB 應制定文件,詳細說明最常用之AI工具之功能與局限性,以協助醫療委員會發揮監管者之角色,並應制定常見問題與最佳實務文件,作為提供照護時利用AI方面關於透明度之資源。 (2)教育與理解(Education and Understanding): FSMB及其於醫學教育界之合作夥伴,應為醫師、醫療委員會與患者,確認有關醫療照護中AI之結構化教育資源,該等資源應包括協助瞭解AI如何運作、其優點、潛在風險以及對患者照護之影響。 (3)負責任之使用與問責(Responsible Use and Accountability): 開發人員應協助醫師瞭解何時、以及如何於患者之照護中利用AI工具;選擇AI工具支援臨床決策之醫院系統、保險公司或其他機構應向醫師提供有關AI工具之教育、存取各工具之性能報告,並應設計一個定期檢視工具功效的流程;AI工具應以得使各州醫療委員會能稽核與理解之方式設計,以便適當評估依賴工具輸出結果之醫師是否偏離照護標準(standard of care);FSMB 應支持各州醫療委員會針對臨床醫師如何負責任、可問責地使用AI之解釋。 (4)公平性與近用(Equity and Access): 應努力確保所有患者皆能公平地近用AI帶來之好處;FSMB與各州醫療委員會致力於以下原則:醫療人員所提供之照護是公平的、且不受基於種族、民族或其他形式歧視之偏見影響;FSMB應與其他利害關係人一起理解並解決演算法偏差問題。 (5)隱私與資料安全(Privacy and Data Security): AI工具之開發者必須實施嚴格之保護措施,以保護AI開發與評估時所利用之患者資料,通常情況下應告知患者資料如何被利用,且FSMB應與行業利害相關人一起制定AI系統使用與散布患者資料之政策,包括針對AI開發或評估中使用之患者資料之最低資料保護措施。 (6)監督與監管(Oversight and Regulation): 各州醫療委員會必須保留對於提供醫療服務時,不當應用AI工具之醫生進行紀律處分之權力,其包括問責議題之考慮,特別是當AI系統變得更加自主時;各州醫療委員會應審查其管轄範圍內如何對「醫療行為」(practice of medicine)進行法律定義,以確保對提供醫療照護、人力或其他方面進行持續之監管監督。 (7)法律法規之持續審查與調整(Continual Review and Adaptation of Law and Regulations): 各州醫療委員會應在FSMB之支持下,隨著AI之不斷發展,持續檢視與更新與AI相關之指引與法規;政策制定者應考慮AI對基本法律原則的影響,例如醫療行為之定義以及AI對企業醫學實務之影響;FSMB 應建立一個專門團隊,持續檢視與調整AI指引與法規。 本指引指出,AI工具通常無能力取代醫師之專業判斷、道德責任或對州醫療委員會之責任,醫療行為中之關鍵職業責任始終為確保診斷、臨床決策與建議不存在偏差。與用於診斷或治療疾病之任何其他工具或鑑別方法相同,醫療專業人員有責任確保基於證據結論之準確性與真實性,因此於將AI系統用於患者照護前,醫師應以合理努力識別與解決偏差(如虛假或不準確之資訊等)。