歐盟執委會於2011年4月發布的「智慧電網創新發展」(Smart Grids: from innovation to deployment, COM(2011) 202 final),在有關資訊安全與隱私的部分指出,應建立消費者(consumer)隱私的保護規範,促進消費者的使用意願並瞭解其能源的使用狀況;在資訊交換的過程中,亦須保護敏感的商業資訊,使企業(companies)願意以安全的方式提供其能源使用訊息。
歐盟保護個人資料指令(Directive 95/46/EC)是保護個人資料的主要規範,同時也適用在智慧電網個人資料的保護上,但此時則需要去定義何謂個人資料,因為在智慧電網的發展中,有些屬於非個人資料。若為技術上的資訊而不屬於個人資料的範圍,能源技術服務業者(energy service companies)則不須經同意即可讀取該些資訊以作為分析使用。考慮將來廣泛建置智慧電網後,各會員國可能遭遇如何認定是否為個人資料及其保護的問題,因此目前傾向採取「privacy by design」的方式,亦即在系統設計之初,即納入資訊的分類,而不做事後的判斷。
對於此,歐盟執委會於2012年3月發布「智慧電表系統發展準備建議」(COMMISSION RECOMMENDATION of 9.3.2012 on preparation for the roll-out of smart metering systems),對於相關定義、資料保護影響的評估(例如各會員國必須填寫並提交執委會提供的評估表格,且提交後則必須遵循相關規範)、設計時的資料保護及預設(例如在系統設計時一併納入對資料的保護,使之符合資料保護的相關法規)、資料保護的方式(例如會員國必須確保個人資料的蒐集、處理及儲存是適當的並且具有關連性)、資料安全(例如對於資料偶然的或非法的破壞、或偶然的喪失等情形,亦應予以規範)、智慧電表的資訊與透明化(例如在蒐集相關個人資料後,仍應依規範提供資料主體相關的訊息)等方面提出建議,供各會員國於制訂相關規範時的依據。
自從歐洲法院判決谷歌(Google)應該尊重當事人的「被遺忘權」,從搜尋結果移除敏感、不當或過時的資訊聯結後,日本雅虎(Yahoo!)於2014年11月組成了專家小組,針對民眾請求刪除網路搜尋結果時,搜尋引擎應該在何種程度上及如何給予回應等議題進行討論,並於2015年3月30日公布了個資刪除標準,隔日起生效。 日本雅虎表示,當搜尋某人的姓名,出現其病歷、過去曾經犯下的輕罪等敏感性資訊或明顯侵害個人權益的資訊(如非公眾人物的地址、電話號碼等)時,當事人可以請求刪除搜尋結果,但在決定是否准許當事人請求前,雅虎將先行檢查當事人係屬成年人、弱勢族群或公眾人物(包括國會議員、公司高階主管及影視圈名人等)。至於那些被強烈懷疑為非法的性愛照片,如兒童色情或報復性色情(未經本人同意而散播的親密照片)等,將主動予以封鎖而無法瀏覽。 由於線上文字及圖片相當容易複製,不願意公開的資訊被公開在網路上而無法移除時,往往造成當事人心理上極大的痛苦,於搜尋階段便設法封鎖有問題的資訊,能夠有效地防止因資訊傳播而帶來的傷害。但從言論自由及知的權利的角度出發,某些資訊的揭露本身即具有公益色彩,應該適度限制當事人移除資訊的請求。日本雅虎率先公布個資刪除標準,預料將帶動亞洲入口網站對於隱私保護的重視。
澳洲法院認為新聞標題不受著作權法保護FairFax媒體出版公司是澳洲財經評論(Australian Financial Review,以下簡稱AFR)報紙的出版商,控告Lexis Nexis資料庫所提供的ABIX服務,提供不同的來源的每日新聞標題和摘要,包括AFR的新聞),是侵害FairFax新聞標題的著作權,同時,FairFax要求Lexis Nexis停止使用這些文字。 澳洲聯邦法院認為:1.著作權法不保護新聞標題,因為新聞標題太過簡短;2.證據顯示新聞標題並不能做為共同著作的一部分;3.新聞標題非整篇新聞最實質的部份。4.因為LexisNexis所使用的新聞標題可以構成合理使用。澳洲著作權法中,依據使用的性質與目的若使用新聞報導內容,是可以作為合理使用的主張。也就是說即使新聞標題受到著作權法保護,但LexisNexis仍可以主張合理使用,不會有侵害著作權的疑慮。 法官Annabelle Bennet表示:「新聞標題普遍來說就如同書名,太簡單且太短是不能受到著作權法中的語文著作保護。新聞標題的功能像是一篇文章的篇名,也像針對主題用濃縮的方式簡短的敘述,就如同像是一本書的書名長度。普遍來說,新聞標題太過簡短以致於不能被認為是語文著作,就像是標識(LOGO)在著作權法的評價上不夠重要以致於不能作為美術著作,即使這些是花費技能和勞力所創造的。
歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。
英國政府許可利他的研究用途卵子捐贈主管英國生殖醫療及胚胎研究事務的人工授精暨胚胎管理局(The Human Fertilisation and Embryology Authority, HFEA)在考量過包括對捐贈婦女的風險以及公眾意見的諮詢後,於今(2007)年2月21日正式對外宣佈一項關於研究用途卵子捐贈的方案,當中提出有力的安全措施確保婦女在捐贈過程中會被正確的告知其風險,並強制地獲得適當的保障。管理局許可婦女捐贈其卵子以供研究之用,包括利他的卵子捐贈,以及接受試管受精醫療後所剩餘的卵子捐贈,而這是英國政府首度許可非接受生殖醫療的婦女可以為提供研究之用進行卵子捐贈。 HEFA強調研究用途卵子捐贈在程序上將有更明確的安全措施。這些安全措施包括清楚的區分研究人員及施行該婦女醫療的人員、關於實際上研究後果的詳細資訊、捐贈將產生的影響,以及要求獲得捐贈婦女在不受研究團隊干擾下的同意。這些安全措施將可有效避免女性捐贈者在被脅迫、被詐欺或是被誤導下做出捐贈卵子的決定。同時,婦女亦不能藉由捐贈卵子而獲得報酬,捐贈者只能要求一筆因捐贈所實際產生費用的補償(250英鎊,約16000元新台幣)。 雖然HEFA認為研究用途捐贈卵子的婦女將得到管制部門嚴密而強力的保障,並且不預見在這個特殊的研究領域會有魯莽的應用,但是部分專家對此並不贊同。位於英國倫敦的國王學院幹細胞研究學者Stephen Minger博士即認為目前使用人類卵子進行的研究工作仍未成熟,這項過早提出的方案會鼓勵婦女去提供她們的卵子來進行研究,而鼓勵這種情況的發生仍是太早了。