面對網路騷擾、私密影像濫用及假訊息快速擴散等現象持續上升,新加坡政府於10月15日正式提出《網路安全(救濟與問責)法案》(Online Safety (Relief and Accountability) Bill,簡稱 OSRA),旨在提供受害者更迅速、更具效力的救濟手段,並強化平台與加害者的法律責任。該法案在16日完成國會一讀,預計於2026年上半年正式設立「網路安全委員會」(Online Safety Commission, OSC)。
政府指出,隨著民眾日常高度依賴網路,各類線上侵害行為不斷增加。根據政府的數位化調查,有84%的受訪者曾接觸有害內容,另有三分之一在過去一年曾遭遇實質的網路不法行為。其類型包括性與暴力內容、網路霸凌、種族與宗教衝突言論等。非營利組織SG Her Empowerment的研究更指出,多數受害者因平台處理無效、加害者匿名、外界輕忽其傷害而感到無助,甚至減少自身在網路上的公共參與。
OSRA的核心是建立網路安全委員會(Online Safety Commission, OSC),作為受害者的專責申訴與救濟窗口。受害者在多數案件中須先向平台申訴;若平台未能妥善處理,即可向OSC報告。但針對私密影像濫用、兒童影像濫用與人肉搜索(doxxing)等急迫性高的侵害,可直接向OSC求助。OSC在確認侵害後,將可發布多類命令,包括要求加害者停止傳播內容、限制其帳號,或命令平台移除貼文、封鎖群組、降低特定內容觸及率等。若平台拒不配合,OSC 還可指示ISP阻擋特定網站,或要求App Store下架相關應用程式。
依據法案與附件內容,新加坡將線上侵害行為分為13類,並分階段實施,包含:
1. 網路騷擾(含性騷擾)
2. 人肉搜索
3. 網路跟蹤
4. 私密影像濫用
5. 兒少影像濫用
6. 網路冒名
7. 不實或合成素材濫用
8. 煽動傷害
9. 煽動暴力
最嚴重且高發生率的前5類,包括預計2026年上半年優先落地,前9類行為將隨後實施,構成法定侵權行為(statutory torts),受害者可據此向法院請求損害賠償或禁制令。
因應匿名性造成追查困難,法案也賦予OSC要求平台提供加害者身分資訊的權限,即OSC得要求平台提供其所持有之、涉嫌造成線上危害之終端使用者身分資訊。受害者在OSC認定遭受侵害後,也可申請揭露資訊以利提起侵權訴訟,但揭露資料若被濫用將構成刑事犯罪。政府表示,OSRA的制定歷經多場閉門會議與公開諮詢並獲得廣泛支持,將補強現行刑事與行政法規,為受害者提供更完整的救濟體系。法案預計在下次國會會期進行二讀審議。
德國聯邦政府內閣通過自駕車草案 資訊工業策進會科技法律研究所 2021年3月10日 德國聯邦交通與數位基礎設施部(Bundesministerium für Verkehr und digitale Infrastruktur, BMVI)提出之自駕車草案(Entwurf eines Gesetzes zur Änderung des Straßenverkehrsgesetzes und des Pflichtversicherungsgesetzes – Gesetz zum autonomen Fahren[1]),經聯邦政府內閣(Kabinett)於2021年2月10日批准通過。BMVI表示冀望透過該草案創建自駕車的法律框架,針對自駕車布建與落地應用之相關程序進行規定,以使指定運行範圍(festgelegter Betriebsbereich[2])為全國公共道路的等級四自駕車(Vollautomatisiertes Fahren)能夠成為人民日常生活的一環。 壹、背景目的 2017年3月,德國聯邦議會(Deutsche Bundestag)通過道路交通法(Straßenverkehrsgesetzes, StVG)修正案,修正過後之道路交通法針對具高度與完全自動駕駛功能(hoch- und vollautomatisierter Fahrfunktion)的車輛─約等同於SAE等級三與等級四之自駕車─進行規範,明確規定在操作設計範圍(Operational Design Domain, ODD)允許自駕車操作,如專為於高速公路上行駛設計之自駕車,則在該模式下不得於其他交通道路上行駛[3],該修正亦針對駕駛人[4]的概念與責任範圍進行重新定義[5]。 本次針對自動駕駛制定之草案係以包裹立法之方式,除同樣於道路交通法進行條文的增定(第1d條至第1l條)外,並修正強制汽車責任保險法(Pflichtversicherungsgesetz, PflVG)第1條,增加道路交通法規第1d條所指自駕車車主(Halter[6])的保險責任。目標為使德國成為全球首個將自駕車自研究階段帶入日常生活中之國家,並預計於2022年實現其構想。 貳、內容摘要 道路交通法規增訂之第1d條至第1l條內容概述如下: 一、第1d條:定義 本條定義道路交通法所涉及之自動駕駛相關詞彙,包含自駕車、指定運行範圍、自駕車技術監控者,以及最小風險條件。 二、第1e條:允許車輛運行自動駕駛之條件 本條規範允許車輛運行自動駕駛之條件,包含需符合規定的技術要求、已受核發行駛許可、依各邦法律主管機關批准於指定運行範圍內使用、根據道路交通法第1條第1項允許於公路上行駛等條件;本條亦針對技術設備所必備的功能進行詳細描述,如車輛得自行遵守相關交通法規、自駕系統可隨時藉由技術監控者加以停用並將車輛置於最小風險狀態,以及自駕系統在以視覺、聽覺或其他可感知方式要求技術監控者進行手動駕駛前,預留有足夠的反應時間等。 三、第1f條:使自駕車運行之相關人員(Beteiligten)義務 本條要求自駕車之車主為維護道路安全和環境相容性(Umweltverträglichkeit),需定期進行自駕系統的更新與維護、確保於手動駕駛時遵守道路交通規定,以及履行技術監控任務。在對自駕車進行技術監控時,當接收到系統以視覺、聽覺或其他可感知方式通知技術監控者,並要求切換操作模式時,技術監控者應立即改為手動駕駛模式,並採取必要之安全措施。另外本條要求自駕車之製造商有義務對自駕車進行風險評估,確保其電子電機架構(Electronic & Electrical Architecture, EEA)與聯網系統的安全性,並向德國聯邦車輛運輸管理局(Kraftfahrt-Bundesamt, KBA)和其他有關主管機關提出證明。 四、第1g條:資料處理 本條課予自駕車之車主及製造商特定義務,要求車主在駕駛自駕車時,於特定情況下進行指定資料類型之保存及傳輸;在製造商部分,則要求其需以簡單、清晰且明確的方式,告知車輛之車主隱私設置選項以及駕駛過程中資料係如何被處理。另本條授權KBA於有安全上之必要時,向車輛之車主進行資料的蒐集、儲存與使用。 五、第1h條:自動駕駛功能的追溯啟用 當動力車輛設置未符合本法所適用之國際法規所描述之自動駕駛功能,僅當停用自動駕駛功能,而不影響車輛其他功能時,方可不考量自動駕駛功能未符合國際法規描述之情況,允許依相關審驗規定運行車輛。 六、第1i條:自動駕駛功能的測試 仍處於測試開發階段之自駕車僅在經KBA核發測試許可、已根據本法第1條第1項進行註冊的情況下,方得於公共道路上行駛,且該行駛必須基於測試目的,過程中亦必須持續進行技術監控。 七、第1j條:授權 經聯邦參議院(Bundesrat)批准之法令授權,BMVI可就道路交通法第1d條至第1i條之公共道路上具自駕功能車輛的許可和操作進行細節性規定。 八、第1k條:德國聯邦國防軍隊、聯邦警察、各邦警察、民防與災難控制、消防隊和緊急服務的車輛 為執行官方任務而有配置自駕車的需要時,若能確保使用自駕車時充分考慮公共安全,則允許相關技術規範、操作設計範圍規範,與其他行駛相關規範之適用排除。 九、第1l條:評估 基於自駕車研發過程可能產生的影響與其和資料保護法規的相容性,BMVI將於2023年底前,以根據本法第1i條第2項所取得之測試資料進行評估,並將評估結果交予聯邦議會。 參、簡析 由BMVI所提出之針對自駕車的草案目前正於聯邦議會及參議院的程序進行中,預計可於2021年中通過。與2017年之道路交通法修正案進行比較,2017年之修正主要目的係使自駕車能夠受道路交通法規之規範,故將自駕車以正面表列之方式,增列入道路交通法規對車輛之定義中,並對駕駛人之義務進行規範,而較少針對自駕車特性制定專門之規定;與之相比,綜觀本次修正草案之內容,可總結出草案係針對未來可於公路上行駛之自駕車結構、品質與設備制定一致性的技術標準要求,規範操作相關人員應行使之義務如自駕系統更新、資料保存、安全性證明與風險評估等,並就操作執照的審查與自駕車測試相關程序進行制定,透過針對自駕車之發展與落實所需進行法條內容之設計,力圖藉此於促進自駕車發展與落實的同時,進一步推動德國道路交通法規之調節與一致性規範之創設。 我國政府長期以來致力於自駕車科技的研發與實驗,2019年6月施行之無人載具科技創新實驗條例以沙盒之概念,於自駕車實驗的範圍內進行特定法規與條件的排除,使技術的研發與測試能不受現有之規範或特定條件限制,最終期望能將自駕車實際投入現有交通體系中使用。為使我國法制環境能與技術發展相互配合,建議可參考德國自動駕駛法草案之內容,在確保公共安全的基礎上,於我國制定自駕車之公路行駛規範,以協助自駕車技術於交通體系之落實。 [1]Bundesministerium für Verkehr und digitale Infrastruktur ,Entwurf eines Gesetzes zur Änderung des Straßenverkehrsgesetzes und des Pflichtversicherungsgesetzes – Gesetz zum autonomen Fahren (2021), https://www.bmvi.de/SharedDocs/DE/Anlage/Gesetze/Gesetze-19/gesetz-aenderung-strassenverkehrsgesetz-pflichtversicherungsgesetz-autonomes-fahren.pdf?__blob=publicationFile (last visited Mar. 10, 2021). [2]指定運行範圍(festgelegter Betriebsbereich)於草案第1d條中之定義為「當地與空間上確定之公共道路」,應非普遍所指操作設計範圍(Operational Design Domain, ODD),特於此說明以避免混淆。 [3]Deutsche Bundestag, Straßenverkehrsgesetz für automatisiertes Fahren geändert (Mar. 30, 2017), https://www.bundestag.de/dokumente/textarchiv/2017/kw13-de-automatisiertes-fahren-499928 (last visited Mar. 10, 2021). [4]2017年道路交通法之修正係針對駕駛人(Fahrzeugführer)之概念與責任範圍進行重新定義,而非針對車主(Fahrzeughalter/Halter),特於此敘明。 [5]§§1a,1b,63a StVG. [6]車主(Fahrzeughalter/Halter)與所有人(Eigentümer)之概念於德國道路交通法上非完全相等,普遍情況兩者為同一人,但在少數情況則否,以車輛租賃為例,在此車輛之出租人為所有人,而車輛之承租人為車主,特於此敘明。
何謂「Sitra」?芬蘭創新研究發展基金(Finnish Innovation Fund, Sitra) 成立於1967年,是由芬蘭國會直接監督及管理的獨立性公共部門,為芬蘭第一個以科技為主旨的創業投資基金。Sitra設立主要目的是提供對創新企業或風險性專案提供無償資助或貸款,專門研究如何在芬蘭全方位各領域以創新帶動社會發展,使其在國際市場更具競爭力。Sitra為初創公司提供所需資金的15%到40%,待支持的項目成功後,獲取的回報即可再用於擴大投資,創造正向循環的投資環境。與芬蘭國家技術創新局(Tekes)相比,Sitra主要投資於公司和創業公司以創造有利可圖的新興業務;而Tekes為芬蘭經濟及就業部之一部分,主要資助大學、研究單位或私人公司進行科技研發,是芬蘭科技產業創新研發重要支柱。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。
美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。