國際推動綠色科技發展重要法制政策研析

刊登期別
第19卷,第3期,2007年03月
 

本文為「經濟部產業技術司科技專案成果」

※ 國際推動綠色科技發展重要法制政策研析, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2105&no=55&tp=1 (最後瀏覽日:2026/01/09)
引註此篇文章
你可能還會想看
德、法、盧森堡三國推動跨國境數位測試場域(Digitalen Testfeld))「自動化與聯網駕駛」計畫測試應用

  德國,法國和盧森堡共同推動「數位測試場」:自動化與聯網駕駛之跨國境測試。三國交通部門部長在2017年9月15日法蘭克福國際車展中決定擴大測試場域的範圍。令自動駕駛的測試場域,現在擴及到三國,並進行跨國界的測試。   三方「數位測試場域」推動的目的在於將科技從實驗室帶到跨國境的實地測試。「行動4.0是邁向歐洲單一市場的一個重要里程碑」,德國交通部長希望「自動駕駛領域是由歐洲來主導的市場」。並由德、法與盧森堡共同簽署三邊「數位測試場域」協議。   二月初同意的「數位測試場域」,是德法在2016年9月開始執行的「法德電動與數位方案」計畫跨國界測試自動駕駛的一部分。以共同合作,兩國希望推動電動車和自動駕駛領域的創新。如今又加入第三個國家:盧森堡。   目前,測試場域的選擇,從德國薩蘭邦梅爾茲,經過薩爾路易和薩爾布呂肯,最後到法國梅斯。此次,將盧森堡的貝唐堡設置的測試車道納入成為一個跨越三個國家的車道測試圈。   計畫所進行測試著重以下應用:車間通信(車對車)和與透過LTE/5g等行動通訊信號與基礎設施通訊;自動化和聯網駕駛下的超車、切車、煞車;普及化的智慧交通引導系統與預警服務。   數位測試領域讓工業,研究和政策獲得在實際交通狀況的經驗。研究資金提供對象,聯邦政府將提供約1億歐元給測試領域的研究項目。研究測試補助重點在以下領域:駕駛人和車輛之間的相互作用;交通管理和規劃;聯網與資料管理;社會層面。

不畏經濟衰退,歐盟企業增加研發經費

  根據歐盟執委會(European Commission)之聯合研究中心(Joint Research Centre, JRC)於今(2012)年初針對歐盟境內之1000間企業所做的「歐盟產業研發投資趨勢調查」(The EU Survey on R&D Investment Business Trends)結果指出,目前歐盟境內之頂尖企業期待自2012年至2014年止,以每年平均4%的成長率投注資源於研究發展領域。   儘管目前全球經濟局勢仍不明朗,多數的歐盟企業依舊認為,投注研究發展乃為企業追求未來成長和繁榮的重要關鍵要素。而該現象主要於軟體和電腦服務產業最為明顯。除了企業自身投注研發資源以進行創新研發、市場調查、和新產品的推行等相關活動外,多數的企業亦認為藉由國家補助經費、成立公私部門夥伴合作模式,此類外部激勵方式對於企業創新活動的進行,具有相當之助益。此外,透過簽署各項合作協議,企業與學研機構間得以相互授權合作,進而促進知識分享,此皆目前強調開放式創新(open innovation)概念的具體實踐之例,實值得肯認。然而,歐盟企業亦普遍認為,現行歐盟智慧財產權機制仍有智慧財產權保護申請時程過長,以及申請智慧財產權保護所需費用過於昂貴等不足之處,而該不足之處乃為目前歐盟企業進行創新研發活動時的絆腳石。   如何促進企業之創新研發能力,乃為目前全球各國於規劃推動各項相關策略時之主要討論標的之一。儘管當前歐盟智慧財產機制仍有待改善之處,然就歐盟企業所肯認之跨機關構合作模式、合作協議之簽署、國家經費之補助等措施,仍值得進行進一步的探討與觀察。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

從「梅花烙」與「宮鎖連城」著作權侵權糾紛案看劇本實質近似之判斷方式

TOP