本文為「經濟部產業技術司科技專案成果」
歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。
歐盟國會通過頗受爭議之「反仿冒貿易協定(ACTA)在歷經多次談判會議,由包括美國、歐盟、日本、韓國等11個國家共同參與的「反仿冒貿易協定(Anti-Counterfeiting Trade Agreement, 簡稱ACTA)」,終於在雪梨展開的最後談判回合(11月30日-12月4日)中獲得共識,並於日前正式對外發布ACTA協定文本內容。 該協定旨在透過跨國境的國際合作,有效打擊日益猖獗的盜版及仿冒問題,全文共計6章45條文,包括民、刑事執行、邊境措施等,且因應數位化時代對智慧財產權保護所帶來的衝擊,針對數位化環境智慧財產權的執行措施,也有相對應的規定(section 5: Enforcement of Intellectual Property Rights in the Digital Environment)。而ACTA協定文本尚須提交各簽約國政府或國會表決同意的程序,方能生效。 以歐盟為例,儘管遭受歐盟境內廣大的批評聲浪,歐盟國會於11月24日以驚險的半數通過爭議許久的「反仿冒貿易協定(Anti-Counterfeiting Trade Agreement, ACTA) 」。歐盟國會宣稱,透過ACTA協定的簽署,以國際合作的方式,將有助於解決現今猖獗的侵權問題,以落實智慧財產權的保障。尤其是針對歐盟境內的地理標誌(如Champagner、Spreewald-Gurken),未來將可透過跨國合作,提升對歐洲企業的保護。雖然現階段仍有許多問題未能達成共識,但至少ACTA協定啟動各國合作打擊仿冒的開端。 不過,雖然歐盟執委會一直以來對外“消毒“, ACTA協定的簽署前提是在符合歐盟現行法規的基礎上,並且不會對歐盟人民的基本權、個人隱私權保障造成威脅。但包括電子通 訊傳播業者(e-communications providers)、無疆界醫師組織等團體,都發表聲明,要求歐盟國會確保ACTA協定落實於各會員國內,不會影響改變歐盟既有的法制規範。包括是否引進三振條款,透過網路封鎖手段遏止侵權行為、是否以刑事手段制裁侵權人等爭議,勢必在各歐盟會員國提交其國會表決時,將引起極大的討論。
OECD發布「促進人工智慧風險管理互通性的通用指引」研究報告經濟合作發展組織(Organisation for Economic Co-operation and Development,下稱OECD)於2023年11月公布「促進AI風險管理互通性的通用指引」(Common Guideposts To Promote Interoperability In AI Risk Management)研究報告(下稱「報告」),為2023年2月「高階AI風險管理互通框架」(High-Level AI Risk Management Interoperability Framework,下稱「互通框架」)之延伸研究。 報告中主要說明「互通框架」的四個主要步驟,並與國際主要AI風險管理框架和標準的風險管理流程進行比較分析。首先,「互通框架」的四個步驟分別為: 1. 「定義」AI風險管理範圍、環境脈絡與標準; 2. 「評估」風險的可能性與危害程度; 3. 「處理」風險,以停止、減輕或預防傷害; 4.「治理」風險管理流程,包括透過持續的監督、審查、記錄、溝通與諮詢、各參與者的角色和責任分配、建立問責制等作法,打造組織內部的風險管理文化。 其次,本報告指出,目前國際主要AI風險管理框架大致上與OECD「互通框架」的四個主要步驟一致,然因涵蓋範圍有別,框架間難免存在差異,最大差異在於「治理」功能融入框架結構的設計、其細項功能、以及術語等方面,惟此些差異並不影響各框架與OECD「互通框架」的一致性。 未來OECD也將基於上述研究,建立AI風險管理的線上互動工具,用以協助各界比較各種AI風險管理框架,並瀏覽多種風險管理的落實方法、工具和實踐方式。OECD的努力或許能促進全球AI治理的一致性,進而減輕企業的合規負擔,其後續發展值得持續追蹤觀察。
德國車輛及其系統新技術研發計畫德國經濟與能源部於2017年11月公布車輛及其系統新技術補助計畫期中報告,補助的研究計畫聚焦於自動駕駛技術及創新車輛技術兩大主軸。 在自動駕駛研究中,著重於創新的感測器和執行系統、高精準度定位、車聯網間資訊快速,安全和可靠的傳輸、設備之間的協作、資料融合和處理的新方法、人機協作、合適的測試程序和驗證方法、電動汽車之自動駕駛功能的具體解決方案。其中以2016年1月啟動的PEGASUS研究項目最受關注,該計畫係為開發高度自動化駕駛的測試方法奠定基礎,特別是在時速達130公里/小時的高速公路上。 在汽車創新技術的研究發展上,著重於公路和鐵路運輸如何降低能源消耗和溫室氣體排放,包括透過交通工具輕量化以提高能源效率、改善空氣動力學之特性、減少整體傳動系統的摩擦阻力、創新的驅動技術。另外,也特別注重蒐集和利用在車輛操作期間產生的資料,例如在於操作和駕駛策略的設計,維護和修理,或車輛於交通中相互影響作用。 本報告簡介相關高度實用性技術研究計畫,同時展望未來研究領域,以面對現今產業數位化的潮流和能源效率及氣候保護的發展的新挑戰,因此,資通訊技術、自動控制技術以及乾淨動力來源技術,將會是未來交通領域研究的重點。