歐盟提出先進製造先進歐洲報告與行動方針

刊登期別
第26卷第10期,2014年10月
 

※ 歐盟提出先進製造先進歐洲報告與行動方針, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6735&no=55&tp=1 (最後瀏覽日:2026/05/06)
引註此篇文章
你可能還會想看
美國聯邦通信委員會通過新「5年軌道碎片規則」,以應對日益增加之軌道碎片風險

  美國聯邦通信委員會(Federal Communications Commission,FCC)於2022年9月29日以4票對0票通過新的軌道碎片(太空垃圾)規則,以求解決軌道碎片碰撞的成本風險,促進低地球軌道區域經濟利用。   新軌道碎片規則將大幅縮短原本長達 25 年的衛星任務後處置指南,要求運行於低地球軌道區域(高度低於2,000公里)之太空載具,營運商應於其任務結束5年內進行「脫軌」處置,例如將衛星脫離軌道,使其落入地球大氣層並燃燒殆盡,或開發新的太空垃圾清理技術進行衛星回收,以降低衛星碰撞風險。且新軌道碎片規則除以美國許可發射的衛星為其適用對象外,同樣適用於欲進入美國市場之衛星系統營運商,因其向FCC之申請流程中,包含衛星任務長度及衛星脫軌時間表,故受系爭新規則拘束。   FCC主席Jessica Rosenworcel表示,目前太空中有數千噸的軌道碎片,為了開創新的太空時代,解決軌道碎片問題是必要的,尤其是低地球軌道區域,新的5年軌道碎片規則即是旨在透由縮短任務結束後太空載具的處置時間;FCC專員Athan Simington亦表示,美國約代表50%的國際太空經濟,新軌道碎片規則將擴展到所有尋求進入美國市場的營運商,預期可成為全球營運商默示且無法抗拒之規則。   考量系爭新規則將增加營運商之負擔及成本,FCC定有2年過渡期間,即2024年9月29日後發射的太空載具,方適用新的5年軌道碎片規則。

產業創新條例因應放寬公司研發抵減、加強留才制度之修正草案

加拿大隱私專員與首席選舉官針對聯邦政黨發布個人資料保護指引

  加拿大隱私專員辦公室(Office of the Privacy Commissioner of Canada, OPC)與加拿大首席選舉官(Chief Electoral Officer of Canada, CEO)於2019年4月1日聯合針對聯邦政黨發布個人資料保護管理之指引(Guidance for federal political parties on protecting personal information)。目前加拿大選舉法(Canada Elections Act, CEA)僅概括規範政黨須制定隱私政策,以保護選民之個人資料,惟其卻未有具體法規制度落實。對此加拿大隱私專員辦公室認為政黨必須提出具體隱私政策來履行其法律義務。   現行加拿大選舉法規範聯邦政黨必須於其網站上公布隱私政策,並提交給加拿大選務局(Elections Canada)。若其隱私政策變更,必須通知首席選舉官,且即時更新網站上隱私政策版本。加拿大聯邦各政黨須於2019年7月1日前完成相關規範,為具體實踐政黨隱私保護制度,加拿大隱私專員辦公室提出幾點隱私政策之必要條件: 一、 聲明蒐集個人資料之類型與如何蒐集個人資料? 二、 如何保護其蒐集之個人資料? 三、 說明如何利用個人資料?是否會將個人資料給予第三方? 四、 針對個人資料蒐集、利用之人員如何培訓?內部控管機制為何? 五、 蒐集分析之資料為何?是否有利用cookie或相關應用程式蒐集? 六、 設置處理個資隱私疑慮專責人員   除此之外,該辦公室更建議參採國際隱私保護作為,著重公平資訊原則,政黨於個資隱私保護上須有其問責制、目的明確性、透明化、限制性蒐集,且未經當事人明確同意不得蒐集政治觀點、宗教或種族等敏感性個資,並應建置保障性措施與合規性管理機制。

美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作

美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。

TOP