英國內閣辦公室宣布開啟「2015年開放政府夥伴英國國家行動計畫」

  英國內閣辦公室於2015年7月13日宣布開啟「2015年開放政府夥伴英國國家行動計畫」,認為身處於轉型於科學與技術、面臨了資訊革命的世界,資訊開放可以促使英國政府現代化作業,這也是讓英國邁向較佳未來的最好方式。現在英國社會已然是此一趨勢,而英國政府的任務就是讓其更佳發展,「開放政府夥伴國家行動計畫」(Open Government Partnership National Action Plan)就是英國政府規劃發展的藍圖,承諾將提供給民眾一更加開放及有責的政府。

  而英國政府目前已就部分政策(資訊公開、反貪腐、財政透明以及公開政策形成過程)有相關發展,分述於下列七點摘要說明:

  • 更高的有責性(accountability):當英國政府開始公佈其政府部門相關出差數據後,英國政府發現高階官員變得更加傾向於搭乘飛機時乘坐經濟艙,以減少開銷。而溫莎-梅登黑德皇家自治市鎮議會(Windsor and Maidenhead Council)發布了公部門建築物的即時能源使用資訊,因此協助公部門減少16%的能源帳單費用。
  • 更佳的資訊管理:英國政府發現,將訊息公開並使其可以利用,促使英國政府本身成為更佳成熟的資訊使用者。不僅英國政府會具備更高的有責性,同時也更能獲得公眾的資訊,而資訊公開則可使英國政府的決策具有實證依據。
  • 資訊更加公開:資訊公開的優點不僅可使英國政府獲得公眾之資訊,同樣地公眾亦可得到政府的資訊,進而提升英國政府公共服務的水準。
  • 數據經濟(data economy):目前英國有上千家創業的新興公司正在設法取得政府創新利用的相關資訊,透過資訊的公開亦同時可幫助英國此類數據經濟的成長。
  • 國際合作:英國政府認為於在政府透明化方面需要更多的國際合作。英國政府將以官方協助的立場公開資訊,支持採掘產業(extractive industries)財政透明的全球性標準,並承諾建立一個公司受益所有權(company beneficial ownership)的註冊中心單位,將會有關於英國各家公司最終擁有及實質管控者清楚的資訊來源,藉此打擊貪腐弊案。
  • 地方授權:除了上述所提者,英國政府同時亦要將此規劃落實到各地,將授權予蘇格蘭、威爾斯、北愛爾蘭以及英格蘭的城市等地區。從蘇格蘭聯合政府的運作,到曼徹斯特其地方企業夥伴(Local Enterprise Partnership, LEP)公開資訊的利用,這些設置都可以作為彼此學習的借鏡,並將開放政府的原則擴散到全英國。
  • 採取如維基(Wiki)的模式形成政策:英國政府認為應該要朝向維基百科(Wikipedia)運作的模式發展,於政策規劃方面採取與各方更高度合作的方式進行,可使資訊得以廣泛擴散。

相關連結
※ 英國內閣辦公室宣布開啟「2015年開放政府夥伴英國國家行動計畫」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6975&no=64&tp=1 (最後瀏覽日:2026/02/07)
引註此篇文章
你可能還會想看
新國際協定針對未經請求之行銷電話或電子訊息展開聯合行動

  加拿大隱私專員於2016年6月14日表示,制定支持全球電信監管機構和消費者保護機構,針對垃圾郵件和行銷騷擾電話之跨境共同合作協議。   倫敦行動計畫(London Action Plan)備忘錄(MOU)之簽署國,現已可針對打擊跨國界或逾各個國家監管部門範圍之犯罪從事者的執法行動,相互分享資訊和情報,以獲取協助。   包括加拿大隱私專員辦公室(OPC)在內,目前既已簽署方分別為:澳大利亞通訊及傳媒管理局;加拿大廣播電視和電信委員會、韓國訊息安全局(KISA)、荷蘭消費者和市場監管局(ACM)、英國資訊委員辦公室及公民諮詢局、紐西蘭內政部、南非國家消費者委員會、美國聯邦貿易委員會和聯邦通訊傳播委員會。其他國家之政府當局亦表示願提交備忘錄,以及將來可能加入之意願。   對於加拿大隱私專員辦公室而言,這項協議將有助於達成加拿大反垃圾郵件法(CASL)關於電子郵件地址蒐集和間諜軟體之調查義務與責任,並與具有相同任務之夥伴機構間,進行偵查技巧及策略之分享。   加拿大隱私專員辦公室致力於和國內及國際夥伴合作,並已與國內之CASL執法合作夥伴及其他許多國家的隱私保護機構簽訂協議。

日本立憲民主黨提出SDGs基本法案,以達成2030永續發展目標

日本立憲民主黨於2023年6月13日向眾議院提出「SDGs基本法案」(持続可能な開発の目標の達成に向けた諸施策の総合的かつ一体的な推進に関する法律案),旨在達成2015年聯合國大會通過之「2030永續發展目標(SDGs)」。 去年6月立憲民主黨曾向參議院提出相關法案,但未審議就被廢止,此次係因日本政府針對SDGs雖有列舉相關議題,惟未對每個目標和達成度進行評估,僅是羅列先前政策,故立憲民主黨擔憂日本無法於2030年實現永續發展目標,重新向眾議院提出SDGs基本法案,希冀透過制定基本方針及必要事項,課予政府實施相關政策,法案主要內容摘要如下: 一、 提出基本原則要求政府應提供國民、經營者、民間團體等構成社會之多元主體,都能參與實現永續發展目標之機會,並應平等對待處於弱勢地位者保障其基本人權,使其受到尊重、充分發揮其個性及能力。 二、 另因永續發展目標與國際相互間有密切關聯,政府應確保國際合作,使目標一體化。 三、 除課予國家、地方自治體應提出SDGs基本方針外,亦要求地方公共團體、企業,在開展各項目活動時,應努力且有責任地一同促進實現永續發展目標。 四、 為實現目標,要求政府須採取必要法制、財政、稅制等措施,政策之內容亦應反映多種民意、確保公正性、透明性,且每年都要向國會提出施政成果及評估報告。 五、 設置「永續發展目標推進本部」(持続可能な開発目標達成推進本部),並邀請專家、利害關係人召開「永續發展目標推進會議」(持続可能な開発目標達成推進会議),一同評估基本方針政策及其達成狀況。 六、 由於實現永續發展目標並不因2030年後任務即刻終止,關於2031年以後之政策,政府應考量社會措施、國際動向等,依評估結果再採取必要之措施。 針對SDGs基本法眾議院已於10月20日交由委員會審議中,是否通過該法案仍待後續觀測,但已展現日本推動SDGs之決意。我國雖非聯合國之會員國,惟於2016年亦自願性回應全球永續發展行動與國際接軌,並於2021年成立「行政院國家永續發展委員會」,力求實現永續發展目標;然而僅靠政府機關的努力恐怕力有未逮,可參考日本作法納入國民、民間團體、企業等多元參與者,攜手合作共同實現SDGs。

日本IPA/SEC公佈「IoT高信賴化機能編」指導手冊

  日本獨立行政法人情報處理推進機構(IPA/SEC)於2016年3月公佈「聯繫世界之開發指引」,並於2017年5月8日推出「IoT高信賴化機能編」指導手冊,具體描述上開指引中有關技術面之部份,並羅列開發IoT機器、系統時所需之安全元件與機能。該手冊分為兩大部份,第一部份為開發安全的IoT機器和關聯系統所應具備之安全元件與機能,除定義何謂「IoT高信賴化機能」外,亦從維修、運用角度出發,整理開發者在設計階段須考慮之系統元件,並依照開始、預防、檢查、回復、結束等五大項目進行分類。第二部份則列出五個在IoT領域進行系統連接之案例,如車輛和住宅IoT系統的連接、住家內IoT機器之連接、產業用機器人與電力管理系統之連接等,並介紹案例中可能產生的風險,以及對應該風險之機能。IPA/SEC希望上開指引能夠作為日後國際間制定IoT國際標準的參考資料。

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

TOP