歐盟執委會提出「歐盟開放資訊戰略」

  為達成歐盟數位議程(Digital Agenda)中的單一數位市場(Digital Single Market)目標,歐盟執委會(EU Commission)提出了「開放資訊戰略」(Open Data Strategy for Europe)措施,預計可為歐洲地區創造出每年超過400億歐元的產值。 此方案係利用歐盟各會員國政府已蒐集的大量資訊,藉由免費或低收費的方式,提供全歐洲任意目的使用。目前英國、法國已完成相關整備,蓄勢待發 。

  歐盟此目標包含三個具體措施:a.歐盟執委會將率先開始,利用新網站(data portals)免費開放資訊;b.建立全歐洲開放資訊的公平競爭環境;c.從2011至2013年投入共1億歐元,以進行資料處理研究。

  此外執委會建議修正2003年公共部門資訊再利用指令(2003/98/EC),包含:a.所有公部門蒐集的資訊,在無妨礙著作權情形下,應開放予所有人任何目的使用;b.除了必要成本外,不得收取其他費用;c.任何機器均可使用,以確保資料有效重新利用;d.引入監管機制;e.擴展指令覆蓋範圍,包含博物館與圖書館等。 歐盟執委會現已著手建立新的專屬公開網站,未來該網站將可連結到歐盟各會員國公開資訊。該網站預計於2012年春季正式推出。

相關連結
※ 歐盟執委會提出「歐盟開放資訊戰略」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5735&no=66&tp=1 (最後瀏覽日:2026/02/22)
引註此篇文章
你可能還會想看
歐洲創新委員會發布2024年工作計畫,將對策略性科技公司及新創公司提供超過12億歐元的資金

歐洲創新委員會(European Innovation Council, EIC)於2023年12月12日發布2024年工作計畫,其中三項計畫將對策略性科技公司及新創公司提供超過12億歐元的資金: (1)「探路器計畫」(EIC Pathfinder):本計畫經費共2.56億歐元,將補助「有潛力帶領技術突破」的多元學科(multi-disciplinary)研究團隊;每案補助金額不超過400萬歐元。 (2)「轉型器計畫」(EIC Transition):本計畫經費共0.94億歐元;「轉型器計畫」係協助「探路器計畫」、「歐洲研究院概念驗證計畫」(European Research Council Proof of Concept projects)、「展望歐洲計畫」(Horizon Europe)之研發成果銜接創新應用;此計畫每案補助金額不超過250萬歐元。 (3)「加速器計畫」(EIC Accelerator):本計畫經費共6.75億歐元,補助對象為「有能力創造新市場及促進顛覆性技術創新研發」的新創企業及中小企業。此計畫每案補助金額為250萬歐元以下,但若由EIC基金進行投資者,每案補助金額為50萬歐元至1500萬歐元。 除上述補助外,EIC對於研發計畫管理亦扮演積極主動的角色,可協助受補助者連結歐盟境內外資源,形塑良好的創新生態系。

歐盟網路中立性議題發展—2009~2013年兩次電子通訊管制法律改革之觀察

歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。   該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

加拿大公布新的企業個資保護自評工具

  加拿大聯邦政府與亞伯達省(Alberta)及英屬哥倫比亞省(British Columbia)的隱私委員會針對一般企業,聯合推出新的個人資料保護自我評量線上工具,該線上工具之內容包括風險管理、政策、記錄管理、人力資源安全、物理安全、系統安全、網路安全、無線、資料庫安全、作業系統、電子郵件和傳真安全、資料完整性和保護、存取控制、信息系統獲取,開發和維護、事件管理、業務連續性規劃、承諾等項目之評估測驗。   聯合制定該線上自我評量工具的隱私委員辦公室表示,該線上工具可用於任何私人組織,特別是小型及中小型企業,而且新的線上工具是針對企業為一全面性的評估,並且該評估的內容十分鉅細靡遺。另外,為了提供使用者於使用該線上工具時的靈活性,故使用者亦可以將重點放在最切合自己的企業的部分,亦即僅選擇其中一項或數項為自我評估的內容即可。   又,該線上自我評量工具會將使用者的自我評估和分析過程的結果做成結論,而使用者可以獲得該分析得出之結論,並將作成之結論用來有系統地為評估組織本身的個人資料保護安全性,並藉以提高個人資料保護的安全。

TOP