歐盟對其成員國、其他歐洲國家以及區域鄰國的創新績效進行比較分析並公布2017年歐洲創新計分板報告

  於2017年6月20日,歐盟對於歐盟成員國、其他歐洲國家以及區域鄰國的創新績效進行比較分析,並發布2017年度歐洲創新記分板(European Innovation Scoreboard, EIS)年度報告。它涵蓋歐盟成員國以及冰島、以色列、前南斯拉夫的馬其頓共和國、挪威、塞爾維亞、瑞士、土耳其和烏克蘭。在全球少數指標中,EIS也對澳大利亞、巴西、加拿大、中國、印度、日本、俄羅斯、南非、韓國及美國進行了評估。

  EIS 2017排名與以前的版本不同,EIS 2017的測量框架由27個指標組成,區分4個主要類別的10個創新層面:

  1. 政策框架是創新績效的主要驅動力,涵蓋3個創新層面:人力資源、有吸引力的研究體系及創新環境。
  2. 投資包括公共及私人投資研究與創新,區分外部融資支持及內部資源投資。
  3. 創新活動吸取公司層面的創新工作,涵蓋3個方面:創新者、中間者及智慧財產權。
  4. 創新如何轉化為整體經濟效益之影響力:就業影響及銷售效應。

  EIS顯示歐盟的創新績效繼續增長,特別是由於人力資源的改善、創新型環境、自有資源投資以及有吸引力的研究體系。而瑞典仍然是歐盟創新領導者,其次是丹麥、芬蘭、荷蘭、英國以及德國,創新指數比歐盟平均值高出百分之二十。立陶宛、馬爾他共和國、英國、荷蘭以及奧地利則是增長速度最快的創新者。在全球創新比較中,歐盟僅次於加拿大及美國,但韓國及日本正急起直追,而中國在國際競爭中是發展最快的國家。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 歐盟對其成員國、其他歐洲國家以及區域鄰國的創新績效進行比較分析並公布2017年歐洲創新計分板報告, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7868&no=67&tp=1 (最後瀏覽日:2026/02/11)
引註此篇文章
你可能還會想看
「資訊儲存服務」提供者法律責任之研究-以日本實務新興發展為例

美國參議員提案規範物聯網設備之資安漏洞

  美國參議員2017年08月01日提案立法,要求提供給美國政府的物聯網網路連結設備,須符合產業資訊安全標準,同時規範設備供應商,提供之設備必須可持續更新,不得含有無法更改參數的設定與不得具有任何已知安全漏洞。兩黨皆有參與提案參議員,共和黨為Cory Gardner和Steve Daines,以及民主黨的Mark Warner和Ron Wyden。   由於物聯網連結數持續成長,與物聯網相連的裝置與感應器,預計在2020年會超過200億台裝置,相關裝置的資料蒐集與傳輸,同時影響消費者與產業。當這些裝置在出廠時若預設無法更改的參數,即預設固定程式無法更新,則該裝置連接物聯網時,會因裝置無法更新程式,而可能產生資安漏洞,進而影響物聯網上其它連結設備之安全性。   2016至今,物聯網相關設備已被惡意阻斷服務攻擊(DDOS)影響相關網站、伺服器以及網路基礎設施提供者。   Warner等4位參議員提出的〈2017年物聯網資安改進法〉(Internet of Things (IoT) Cybersecurity Improvement Act of 2017)草案,主要關注: 聯邦政府採購的物聯網相關設備,須可持續更新、符合產業標準、不含無法更改內建參數的設定、以及不含已知安全漏洞。 行政管理和預算局(Direct the Office of Management and Budget ,OMB),須發展可供替代網路級(network-level)資安設備以供限制性資料處理。 國土安全部的國家保護和計畫局(National Protection and Programs Directorate)須向提供連線設備予聯邦政府的承包商,發布整合性的資安漏洞揭露指導原則。 免除資安研究人員基於誠實信用研究時,所揭露與資安漏洞有關之法規責任。 要求所有執行機構清點所有連結物聯網的設備。

真實遊戲,虛擬價值?試析網路遊戲虛擬財產在民法的定位

歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。   該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

TOP