歐盟結合ICT推動電動車整合示範計畫,並公布「2011交通政策白皮書」

  歐盟執委會(European Commission)於去(2011)年11月底宣布,與歐洲電機工程領導組織Orgalime聯盟進行合作,將設立「電動車整合建設示範計畫」,加強推動業界示範營運實務經驗,並結合ICT技術發展,推動歐洲電動車蓬勃發展。歐盟於2011年6月所制定「2011交通政策白皮書--(2011 White Paper on Transport)」,3月所公告「歐盟2050交通遠景(Transport 2050)」規劃政策均係將「電動車產業」視為推動歐盟交通運輸政策之重要支柱;並且,歐盟更是於同年3月所制訂「2011能源效率推動方案(Energy Efficiency Plan 2011)」,明訂運輸專章,宣示將落實推動境內電動車產業相關投資、技術發展及基礎建設。

  並且,歐盟對於電動車推動策略,係定位為結合ICT技術與交通工具之重要實踐。由歐盟執委會所支持成立的歐洲綠色車輛促進組織--「ICT4FEV」,其於2010年12月所公布「ICT for the Fully Electric Vehicle」及所2009年10月所制訂「European Roadmap Electrification of Road Transport」,宣示電動車之推動,對於節約能源與氣候保護的關鍵影響因素,並且規劃於科技領域各項研發工作,強化ICT技術、相關零組件及其系統,可扮演之重要角色,包括儲能系統、運輸技術、車輛整合、安全、電網整合運輸系統整合等。ICT4FEV並宣示未來將持續推動及檢視政府應備規範,並進行相關法令之調修工作。

相關連結
相關附件
※ 歐盟結合ICT推動電動車整合示範計畫,並公布「2011交通政策白皮書」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5635&no=64&tp=1 (最後瀏覽日:2026/02/20)
引註此篇文章
你可能還會想看
日本中小企業廳與特許廳聯合施政,強化中小企業或新創企業智財資源之運用

  日本於2021年12月27日公布「促進中小企業或新創企業智財運用之行動計畫」,該行動計畫是考量到面臨COVID-19疫情、數位化轉型、氣候變遷等背景下,中小企業或新創企業必須善用企業嶄新的技術或發想,以應對商業環境的變化,而智財權作為企業競爭力的動力來源,顕示出強化智財的管理及運用是不可欠缺的課題。   為了提升中小企業或新創企業的智財運用,日本中小企業廳與特許廳以提供一站式服務整合智財運用支援作為目標,制定行動計畫。施政主要重點如下: 強化與「智財綜合支援窗口」之整合:中小企業廳強化與特許廳聯合INPIT(National Center for Industrial Property Information and Training,獨立行政法人工業所有權情報研修館。主要業務為提供智財資料查詢、諮詢窗口、智財人才培育)共同設立的「智財綜合支援窗口」。促使「智財綜合支援窗口」與既有中小企業廳的商業管理諮詢窗口,共同協助企業以智財運用解決商業管理課題、建構智財戰略,同時也有提供專家派遣協助在地品牌的管理。 優化智財交易:除了加強中小企業廳的商業管理諮詢窗口與智財綜合支援窗口的資訊流通之外,INPIT也搭配說明動畫,提供企業智財相關法規、契約書範本、外包法等與智財交易相關知識,以及幫助企業製作用於金融機構評估企業智財價值時之文件。 海外發展智財支援:中小企業廳與特許廳針對海外發展的企業發放外國智財權申請之補助金、政策施予優惠措施,並由INPIT提供海外發展時,應留意智財權相關風險等專業建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

防止境外勢力影響國家安全,加拿大將敏感技術納入投資審查

防止境外勢力影響國家安全,加拿大將敏感技術納入投資審查 資訊工業策進會科技法律研究所 2026年02月04日 加拿大創新、科學與經濟發展部(Innovation, Science and Economic Development,ISED)擬於2026年夏天公告修正後之《加拿大投資法》(Investment Canada Act,ICA)[1],以敏感技術為投資審查中,對國家安全風險之評估要件[2];並對該類型之投資,採事前申報制[3]。加拿大政府定期盤點敏感技術項目,研究者應自行評估其研究計畫有無涉及敏感技術;ISED亦試圖於2026年,以投資審查方式,防免境外勢力取得加拿大敏感技術,本文分析如下。 壹、背景摘要 依據加拿大於2025年10月公布之《2025年至2027年監理前瞻計畫:外國投資審查與經濟安全部門》(2025-2027 Forward Regulatory Plan – Foreign Investment Review and Economic Security Branch),於C-34法案(Bill C-34)中修正ICA[4]。本次之ICA草案,為對《國家安全投資審查條例》(National Security Review of Investments Regulations)和《加拿大投資條例》(Investment Canada Regulations)之修正[5]。申言之,ICA草案以相關的投資條例為修正標的,提升外國投資對加拿大國家安全之風險評估。 ICA為加拿大政府審查外國投資之依據。目的為審查重大外國投資,對加拿大之淨經濟效益(net economic benefit),與投資有無可能損及加拿大之國家安全[6]。C-34法案於2024年3月通過,大部分條款於2024年9月生效。新修正之ICA聚焦於強化加拿大投資的透明度,與投資者的可確定性,並賦予加拿大政府必要的審查權限[7]。 貳、重點說明 一、階段生效,ICA納入對敏感技術之國安審查 ICA採分階段生效之立法模式,2024年9月生效的條款,主要為擴張ISED部長的審查權限,審慎評估外國投資對國家安全的影響[8]。修正內容為授權ISED部長得延長對國家安全之投資審查期限,與臨時提出審查條件[9];投資者所提出的承諾具有拘束力,得作為審查的依據,並視情形要求修改或解除承諾[10]。以及強化與國際執行投資審查業務之主管機關共享資訊,和提升司法審查過程中對資訊之保護等[11]。 針對敏感技術之投資審查,ISED預計於2026年夏天公布最終版本[12]。ICA草案擬要求事前申報對敏感產業領域(sensitive sectors)之投資,並強化對違規行為的處罰力度,且主管機關具審查國營事業投資淨效益的權限等[13]。 綜上所述,ICA之修正,要求境外投資敏感技術應事先申報,以評估對於國家安全之影響。並配合2024年9月生效的條款,賦予ISED部長得依據個案情形,彈性調整審查期限或條件,以因應不同類型的投資風險。 二、配套措施,全面保護敏感技術 (一)敏感技術連接投資審查 加拿大於2025年3月5日修訂《國家安全投資審查指引》(Guidelines on the National Security Review of Investments),於審查境外投資應考量之國家安全因素,包含該投資對加拿大國防與國家利益之潛在影響;投資若屬於2025年2月6日公布敏感技術清單(Sensitive Technology List)項目[14]之研究、設計、製造,則可能影響加拿大境外敏感技術的移轉[15]。亦即若為與敏感技術相關的投資,應經國家安全審查。 (二)敏感技術研究計畫之評估 加拿大於2025年5月7日更新「敏感技術研究領域清單」[16],研究者應依據《敏感技術研究與附屬機關(構)政策》(Policy on Sensitive Technology Research and Affiliations of Concern),先自行評估所研究之技術,是否歸屬於加拿大政府公布之敏感技術類型;次為檢視參與研究人員所隸屬之機關(構),是否屬於加拿大政府公布之「指定研究機關(構)清單」[17]。若研究目的為產出敏感技術,或研究過程有助於敏感技術的發展,則參與該敏感技術研究的人員,不得與指定研究機關(構)具有隸屬關係,或受該些機關(構)的資助[18]。換言之,若預期的研發成果可歸類為敏感技術,則計畫經費應排除來自於特定的機關(構),或與執行計畫人員具隸屬關係。 (三)國內外敏感技術研究合作 依據ISED發布《研究合作的國家安全指引》(National Security Guidelines for Research Partnerships),敏感研究的國內外合作,有國家安全風險者,包含具軍民兩用應用潛力技術的研究;或於該研究中產出的技術,能協助提升國外的軍事、情報與監視能力,擾亂加拿大經濟、社會和關鍵基礎設施,損害加拿大國家利益[19]。研究者應識別潛在的風險,並採取必要的緩解措施,以保護敏感技術的研發成果[20]。此有助研究者評估風險,避免敏感技術因國內外之合作研究,而外洩相關的研發機密。 參、事件評析 外國對加拿大敏感技術研究、設計、製造等之投資,納入投資審查的項目,以避免技術外流所形成的國家安全風險。研究計畫若涉及敏感技術,參與計畫之人員,亦應避免與加拿大政府列舉之特定機關(構)具有隸屬關係,或受其資助;並提供研究者指引,以識別合作研究的潛在風險。加拿大以ICA之國安審查,防堵敏感技術經由投資手段外流。ICA之執法,對敏感技術之保護效能,仍有待評估。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1] Innovation, Science and Economic Development Canada, Red Tape Review – Foreign Investment Review and Economic Security Branch, Government of Canada Gouvernement du Canada, 2025-09-08, https://ised-isde.canada.ca/site/acts-regulations/en/red-tape-review-progress-report/red-tape-review-foreign-investment-review-and-economic-security-branch (last visited Jan. 13, 2026). [2] Innovation, Science and Economic Development Canada, What is the Investment Canada Act?, Government of Canada Gouvernement du Canada, 2024-11-20, https://ised-isde.canada.ca/site/investment-canada-act/en/what-investment-canada-act#s4.2 (last visited Jan. 20, 2026). [3] Innovation, Science and Economic Development Canada, Modernization, Government of Canada Gouvernement du Canada, 2025-08-21, https://ised-isde.canada.ca/site/investment-canada-act/en/investment-canada-act/modernization (last visited Jan. 20, 2026). [4] Innovation, Science and Economic Development Canada, 2025-2027 Forward Regulatory Plan – Foreign Investment Review and Economic Security Branch, Government of Canada Gouvernement du Canada, 2025-10-09, https://ised-isde.canada.ca/site/acts-regulations/en/forward-regulatory-plan/foreign-investment-review-and-economic-security-branch (last visited Jan. 13, 2026). [5] Id. [6] Innovation, Science and Economic Development Canada, supra note 1. [7] Id. [8] Id. [9] Id. [10] Innovation, Science and Economic Development Canada, supra note 3. [11] Id. [12] Innovation, Science and Economic Development Canada, supra note 1. [13] Innovation, Science and Economic Development Canada, supra note 3. [14] Sensitive Technology List, Government of Canada Gouvernement du Canada, 2025-02-06, https://www.canada.ca/en/services/defence/nationalsecurity/sensitive-technology-list.html (last visited Jan. 15, 2026). [15] Guidelines on the National Security Review of Investments, Government of Canada Gouvernement du Canada, paragraph 9(i)(ii), March 5, 2025, https://ised-isde.canada.ca/site/investment-canada-act/en/investment-canada-act/guidelines/guidelines-national-security-review-investments (last visited Jan. 20, 2026). [16] Sensitive Technology Research Areas, Government of Canada Gouvernement du Canada, 2025-05-07, https://science.gc.ca/site/science/en/safeguarding-your-research/guidelines-and-tools-implement-research-security/sensitive-technology-research-and-affiliations-concern/sensitive-technology-research-areas#top (last visited Jan. 15, 2026). [17] Innovation, Science and Economic Development Canada, Policy on Sensitive Technology Research and Affiliations of Concern, Government of Canada Gouvernement du Canada, 2025-05-22, https://science.gc.ca/site/science/en/safeguarding-your-research/guidelines-and-tools-implement-research-security/sensitive-technology-research-and-affiliations-concern/policy-sensitive-technology-research-and-affiliations-concern (last visited Jan. 15, 2026). [18] Id. [19] Innovation, Science and Economic Development Canada, National Security Guidelines for Research Partnerships, Government of Canada Gouvernement du Canada, 2025-05-12, https://science.gc.ca/site/science/en/safeguarding-your-research/guidelines-and-tools-implement-research-security/national-security-guidelines-research-partnerships#top (last visited Jan. 19, 2026). [20] Id.

歐盟「人工智慧法」達成政治協議,逐步建立AI準則

歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).

TOP