英國國際貿易部(Department for International Trade, DIT)於2021年3月22日發布《出口軍用與軍民兩用技術定義與範圍之指南》(Exporting military or dual-use technology Guidance: definitions and scope),以協助使用者定義「技術」與「轉讓軍用或軍民兩用技術的法規範圍」。指南中說明,出口管制目的旨在防止出口技術及技轉可能導致開發或製造武器而危及國家安全,而非禁止合法貿易或知識傳播。任何管制技術的永久或暫時性出口或技轉(Technology transfer)均應取得出口許可證,包括展演、海外招標或投標、履約等行為。
首先在適用主體上,指南說明適用出口管制規範,為所有在英國國境內之人(不論國籍)和組織以及特定情況下的海外英國人,向外國人或海外地區為出口、技轉、或是使海外人員取得受管制技術之情況。
指南中所謂技術者,包含《英國戰略出口管制清單》(UK Strategic Export Control Lists)、《2008年出口管制命令》(The Export Control Order 2008)與歐盟理事會第428/2009號規則(Council Regulation No 428/2009)之內容。有些管制技術會以不同形式呈現,例如藍圖、計畫、模型、程式、指導手冊等,其呈現的形式亦屬管制範圍。此外,部分技術若與大規模破壞武器(Weapon of Mass Destruction, WMD)、武器貿易禁令(arms embargoes)以及未經授權的軍事出口有關者,亦可能屬於受管制之技術,因此定義上十分廣泛。因應科技和網路發展,出口和技轉亦會以不同方式呈現。指南中說明,技轉包含(1)以有形的物理文件或存載於媒體的方式技轉,例如隨身碟、硬碟、筆電或平板等;(2)以電子式等無形形式技轉,例如電子郵件傳送等。無論受管制技術之技轉是否加密,均需取得出口許可證。
針對前述定義之出口和技轉方式,指南中也例示技術移轉或出口的不同態樣,例如(1)電話會議及視訊會議;(2)電子郵件;(3)筆電、手機等可記憶之設備;(4)跨國公司內部傳送;(5)雲端儲存;(6)在國外下載使用管制技術;(7)員工在海外使用/存取內部網路;(8)第三方在海外使用/存取公司內部網路或雲端服務;(9)IT系統維護與測試。以上方式均應個別判斷是否需要申請出口許可證。此外,技術所有者應主導出口管制規範之法遵,故應了解客戶、供應商、分包商等第三方服務業者之詳細資訊,且於契約中明訂各方的出口管制責任及相關條款,並隨時確認接受者或第三方是否得自不同管道取得管制技術及相關訊息,並於可能出口和或技轉管制技術時,立即申請出口許可證。
本文為「經濟部產業技術司科技專案成果」
新加坡國會於 2025 年 11 月5日三讀通過「線上安全(救濟與問責)法案」(Online Safety (Relief and Accountability) Bill, OSRA),希望透過「賦權受害者」與「強化平臺問責」來對抗日益嚴重的線上傷害事件。OSRA旨在補充個人在面對有害的線上行為(Online Harmful Activity)傷害時的救濟途徑,並設置「線上安全專員(Commissioner of Online Safety)」為處理投訴與發布救濟指令的專責機關。 OSRA明確定義了多種有害的線上行為,包括針對deepfake的「不實內容濫用」(Inauthentic material abuse),以及惡意公開他人隱私的「人肉搜索」(doxxing),而為了讓損害即時受到控制,線上安全專員在接獲國民投訴並調查評估後,可直接發出具法律效力的指令(Directions),要求平臺移除、隱藏特定內容,或限制惡意帳號的互動;若平臺不遵守指令,線上安全專員亦得向電信業者發出阻斷特定服務,或向應用程式商店發出下架特定應用程式的命令(Orders),無正當理由違反指令或命令皆有可能構成刑事責任。 此外,OSRA亦擴張了平臺的民事責任,當受害者依指定方式向平臺發出「線上傷害通知」後,若平臺未能在合理期間內採取行動,受害者得逕向平臺經營者或網站管理者提起民事訴訟要求損害賠償,若平臺無故怠慢,法院得判決加重損害賠償,希望藉此敦促平臺建立更敏捷的線上傷害控制機制。 值得注意的是,OSRA宣告了廣泛的長臂管轄機制,為保障新加坡國民的權益,不僅法院對OSRA規範的民事、刑事事件有管轄權,線上安全專員發布指令與命令的對象亦不限於境內,表現對抗全球線上傷害的強烈企圖。
歐盟發布《歐洲資料治理規則》草案歐盟執委會於2020年11月25日公布「歐洲資料治理規則」(Proposal for a Regulation on European data governance (Data Governance Act))草案。本立法草案係延續同年2月發布「歐洲資料戰略」(European data strategy)所提出之立法規劃,針對該戰略所揭示的資料治理政策願景,於制度面予以明文化。而本草案亦為該戰略發布後,首次提出的具體性措施。其制定的主要目的,在於透過強化資料中介機構(data intermediaries)的公信力、以及優化歐盟整體的資料共享機制,來提升資料的可取得性(availability)。 依草案條文內容,其主要立法面向如下: (1)界定本法的立法目的,在於規範歐盟內部再利用公部門所持有之特定類型資料的條件,確立資料共享服務的通報與監督框架,並針對基於利他(altruistic)目的蒐集處理資料之實體(entities),建構自願註冊的制度;另一方面則進行本法的名詞定義。 (2)公部門資料再利用機制:整體性規範由公部門所持有、但涉及商業機密、智慧財產權、個資等之資料再利用的一致性標準。其以保護既有的營業秘密、個資、智財權等為前提,確立該些資料再利用的標準作法(如原則以非專屬形式再利用、可收取合理費用)。有意再利用上述資料的公部門,應於技術面保護其隱私與機密性。 (3)針對資料共享服務供應商的通報機制:要求提供資料共享服務的供應商,於正式對外提供其服務前,應先向各成員國的權責機關通報其業務,藉以增加外界對共享個資與非個資之資料機制的信賴度,同時降低資料共享的交易成本。同時,資料共享服務供應商於資料交換應保持中立,不能為其他目的使用資料;其共享服務應以開放及協作的方式進行,並優化自然人或法人查閱與控制其資料的環境,藉以強化個資自主權。 (4)資料利他主義(data altruism)的明文化:定義非營利、具普遍性共同目標之組織,得向歐盟註冊成為資料利他主義組織。透過此認證制度,增加組織公信力,以推動個人或公司出於公共利益,自願提供資料。同時,授權歐盟執委會可制定通用之歐洲資料利他主義同意書(European data altruism consent form),減少個別收集資料使用同意書之成本。 (5)成員國資料共享權責機關之職責:其應公正、透明、一致、及時履行其職責,監督與實施資料共享服務供應商與資料利他主義組織的通報與註冊機制。例如,其有權要求資料共享服務供應商提交必要訊息,以確保其作為是否符合本法要求。同時,權責機關成員不得為資料共享服務的供應商。 (6)歐洲資料創新委員會(European Data Innovation Board):此為一專家小組之設置要求,負責協助成員國權責機關之作法,遵循資料治理法所訂標準。
強化驗證技術以遏止網路犯罪美國聯邦政府與企業界正朝向增加驗證技術的使用,以遏止線上詐騙的盛行,所謂「雙重驗證( ”two-factor” Authentication)」機制,為美國聯邦財政機構檢測委員會(Federal Financial Institutions Examination Council, FFIEC )與美國芝加哥直銷協會( The Direct Marketing Association, DMA )推行,主要要求檢查除用戶名稱和密碼以外的東西來確認顧客的身份。 美國聯邦財政機構檢測委員會 —包括聯邦儲備(Federal Reserve)和聯邦存款保險公司(Federal Deposit Insurance Corp.,FDIC)等管理者在內,要求銀行2006年底皆必須加強網上身份驗證措施,如給每個顧客一份加密的憑證,這些憑證會向銀行證明用戶的真實身份。且該加密的憑證不會向發放該憑證的其它網站做出回應,這樣既保護了用戶,也保護了銀行。此外,美國聯邦財政機構檢測委員會審查員亦會定期檢查銀行的執行情況;而以美國芝加哥直銷協會為例,其要求會員於交易時所使用之電子郵件,須取得電子郵件系統的驗證,以確保電子郵件係由該協會成員所發出。 如同美國芝加哥直銷協會執行長 John A. Greco 所言,消費者可藉由此種驗證方式增加更多信心,對於其所取的資訊係來自可靠來源並具有合法性,可使市場減低網路犯罪之產生並對於政府、企業及消費者有更多保障。
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。