經建會回應歐洲商會之建議:將積極鬆綁法規,強化區域整合 提供完善投資環境

  歐洲商會在 10 26 日舉行記者會,公布「 2006-2007 年建議書」。該份建議書肯定我政府改善投資環境的努力,但該商會仍然呼籲政府要加速兩岸貿易正常化、強化內部溝通與外部協調,才能提供最完善的國際投資環境。


  根據統計,歐盟在台投資大幅躍升,今年更超越美國在台投資總額,居外資在台投資第一位,顯示歐商對於台灣投資環境的重視與信心;政府也有決心繼續鬆綁法規,強化區域整合,以提供完善投資環境。對於歐洲商會建議之重點議題,經建會已對於各項議題作出初步回應,並表示行政院相關機關會積極檢討並持續溝通。



  經建會胡勝正主委強調,歐洲商會所關切的議題有些牽涉全面政治環境考量,例如擴大開放大陸商品來台或放寬大陸投資
40 %上限等,將請主管機關朝放寬方向為整體性之研議規 劃; 其至於他屬現行政策可行但未解決問題,經建會將持續協調相關部會,朝開放的方向規劃推動。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 經建會回應歐洲商會之建議:將積極鬆綁法規,強化區域整合 提供完善投資環境, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=515&no=0&tp=1 (最後瀏覽日:2026/04/29)
引註此篇文章
你可能還會想看
歐盟專利強化合作方案 不同意見再起

  2011年3月,25個歐盟國家提案成立專利合作強化方案,以強化歐洲境內的專利申請以及審查速度。然而原本在波蘭接下2011年下半年歐盟主席後,希望於任內完成此一強化合作方案的簽署,目前似已遭遇瓶頸。義大利與西班牙兩國與其他25國不同,而對於歐盟(執委會)所提出之「強化專利合作程序」採取反對立場,他們認為因為該程序以英文、法文與德文為專利申請的官方語言,故羅馬及馬德里方面認為這將使得來自這「三大」國家的企業享有不公平的競爭優勢。     前揭方案的背景架構可放大到歐洲專利制度的整合規劃,2011年12月5日召開的歐盟競爭委員會,於有關歐洲專利統合的議題,原預計討論專利法庭所在城市(倫敦、慕尼黑與巴黎被提名)、上訴法庭、仲裁機構、財務分攤與程序接軌等議題。最後經過兩天的會議,只有專利法庭一案的討論,在多國表示願意擔任第一審法庭的情況下,獲得處理方向的決議。而有關財務負擔及其他仍未有確定共識的議題,有待丹麥主席任期中去進行最後協定的催生了。

日本內閣府公布生成式AI初步意見彙整文件,提出風險因應、應用及開發兩大關注重點

日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論: 一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。 AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。 二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。

歐洲議會對再生能源利用達成協議

  為重新對各類再生能源與用於大眾運輸工具之生質燃料使用量確立具約束力之目標,歐洲議會下之工業及能源委員會於2008(今)年9月11日決定批准一項跨黨派協議案。   今年年初,歐盟執委會曾遞交一項促進歐盟境內對再生能源使用量之建議案,亦即設定至2020年時,歐盟境內再生能源使用量應達總能源使用量之20%;同時,該建議案也包含了一項關於生質燃料使用量亦應達到10%之目標。不過,在考慮關於不斷上揚之糧食價格、生物多樣性之消失及廣受質疑之CO2減量價值等因素後,也導致許多團體要求降低執委會最初設定之目標。而經過數月詳細地分析2千多份修正案報告後,執委會再生能源建議案報告起草人Turmes,在今年9月中旬宣佈,該項建議案目前現已獲得跨黨派支持。   於Turmes報告中,其建議應對生質燃料之使用訂立階段性目標:即(1)至2015年時應達到5%;及(2)至2020年時則應增加至10%;同時,其還特定,就未來達成生質燃油使用比例目標而言,至少有40%應要透過利用「非以糧食或飼料競爭性」為原料之第二代生質燃料,或使用綠色電能與氫能源環保車而來;至於其他種類生質燃油之利用,則應須在符合嚴格之環境永續性標準下,方能一併被納入計算。而為支持年初所提之建議案,德國、英國及波蘭等國也在6月份提出一項新的彈性機制:即在會員國間可透過合作型計畫來達成各自之目標。此外,對至2020年未達目標之會員國,歐洲議會成員將另批准一套「財務性懲罰原則」來處理之;同時,就懲罰所取得之款項,也將成立一項獎勵專款來激勵超過目標之國家。   不過,綠色組織團體卻認為利用生質燃料因具後述缺點如:(1)成本昂貴、(2)對氣候保護方面並無任何助益、及(3)利用不符永續性標準之生質燃油也僅是增加生物多樣性流失與糧食價格而已,故而對於議會批准該協議案感到失望。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP