為因應近年來人口增長、氣候變遷對糧食安全之威脅,歐洲各國皆認為糧食安全( Food Security)議題為亟待解決之議題,應投入資源研究。為此,2012年歐洲理事會(The European Council),始提出FACCE-JPI策略研究議程(The Strategic Research Agenda of the Joint Programming Initiative on Agriculture, Food Security and Climate Change),議程主要係針對歐洲農業、糧食安全和氣候變化進行整合研究。來自21個歐洲國家代表及研究學者,提出該年度糧食安全之重要觀察議題與發展方向,欲透過此議程建立研究資源整合機制,提高歐盟因應糧食生產挑戰之研究、應對能力。
歐洲理事會於去年(2012)12月提出本年度策略研究議程,內容除重申歐盟應整合糧食安全研究能量外,該議程更指出五大核心研究議題,反映歐盟對糧食安全威脅多元化之重視 ,本議程研究重點歸納如下:
1. 氣候變遷與糧食安全永續
2. 環境永續發展與農業精緻化
3. 糧食供需、生物多樣性與生態系統平衡
4. 氣候變遷之因應
5. 減緩氣候異常現象之有效措施
本議程以核心研究為理論基礎,有效整合各會員國研究能量,更針對各別領域提出具體實踐策略,藉以強化基礎溝通平台、建立歐洲知識訊息交換能力,便利後續評估、監測機制的建立。
策略議程取代傳統將糧食安全視為「國家內政」議題,而以「區域整合」層次處理,象徵歐盟糧食安全共識逐漸發展之趨勢。
本文為「經濟部產業技術司科技專案成果」
英國資訊專員辦公室進行獨立調查時發現, 1、40%的企業沒有充分認識提出的主要條文; 2、87%的企業無法估計公司中業務為因應改革可能支出的成本; 3、82%的受訪者是無法量化其當前資訊保護的開支; 4、在少數的大型組織觀測調查中發現,估計資訊保護的平均花費時常會受到扭曲; 5、當公司擁有超過250名員工或處理超過10萬筆個資紀錄時,絕大多數都已經聘請資訊保護專人; 6、重點業別包括服務業、金融保險業以及公共管理等,需要針對資訊管理有所計畫。 而調查報告在2013年5月14日於柏林舉辦的第三次歐洲資訊保護日會議中提出,資訊專員Christopher Graham表示「必須說,有少數人不同意為面臨21世紀的挑戰,而需要修訂歐洲資訊保護法。但真正進步之實現在於,今日或將來的法律面,針對個人資料有更好的體現。關鍵點在於確實地衡平理論面與執行面中資訊保護權利之平衡點。」 「已經談論過很多關於『什麼是最好的商業』,但這必須基於合法證據。此次的改革的結果會是非常重要的,我們希望敦促歐盟委員會可以考慮並將重點放在制定法律,為消費者提供真正的保障。」 「同樣的,企業和其他的利益相關者必須參與具建設性的義務與隱私權權利的重要性改革,在此過程中仍然可以受到影響」
加拿大隱私專員與首席選舉官針對聯邦政黨發布個人資料保護指引加拿大隱私專員辦公室(Office of the Privacy Commissioner of Canada, OPC)與加拿大首席選舉官(Chief Electoral Officer of Canada, CEO)於2019年4月1日聯合針對聯邦政黨發布個人資料保護管理之指引(Guidance for federal political parties on protecting personal information)。目前加拿大選舉法(Canada Elections Act, CEA)僅概括規範政黨須制定隱私政策,以保護選民之個人資料,惟其卻未有具體法規制度落實。對此加拿大隱私專員辦公室認為政黨必須提出具體隱私政策來履行其法律義務。 現行加拿大選舉法規範聯邦政黨必須於其網站上公布隱私政策,並提交給加拿大選務局(Elections Canada)。若其隱私政策變更,必須通知首席選舉官,且即時更新網站上隱私政策版本。加拿大聯邦各政黨須於2019年7月1日前完成相關規範,為具體實踐政黨隱私保護制度,加拿大隱私專員辦公室提出幾點隱私政策之必要條件: 一、 聲明蒐集個人資料之類型與如何蒐集個人資料? 二、 如何保護其蒐集之個人資料? 三、 說明如何利用個人資料?是否會將個人資料給予第三方? 四、 針對個人資料蒐集、利用之人員如何培訓?內部控管機制為何? 五、 蒐集分析之資料為何?是否有利用cookie或相關應用程式蒐集? 六、 設置處理個資隱私疑慮專責人員 除此之外,該辦公室更建議參採國際隱私保護作為,著重公平資訊原則,政黨於個資隱私保護上須有其問責制、目的明確性、透明化、限制性蒐集,且未經當事人明確同意不得蒐集政治觀點、宗教或種族等敏感性個資,並應建置保障性措施與合規性管理機制。
電子病歷之法源與病人隱私保護 美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。