美國眾議院於2016年4月27日一致同意通過支持電子郵件保護及雲端隱私法案(Email Privacy Act, EPA),本法案之後將會要求執法部門於搜查電子郵件或儲存於雲端設備的資料時,必須向法院取得搜查令,才能取得超過180天以上的資料。
本法案係針對1986年推出的《電子通信隱私法(Electronic Communication Privacy Act, ECPA》進行補強,因為目前科技的進步,早已遠超過ECPA是在網路興起前所得規制的範圍,在當初ECPA法案訂定之初,人民仍有定期刪除E-mail以保持硬碟空間的習慣,但相較於現在多數人都已使用雲端信箱的習慣下,如仍能讓警方等恣意調查任何人的信箱,往往可取得巨量的消息,因此本次的修正可預期將更能使相關規範符合時宜需求。
本次修正重點如下:
1.過往之ECPA規定要求聯邦機構在調查超過180天的電子郵件時只需要取得傳票即可,現在則是需要取得搜查令。
2.要求政府機構必須先取得法院的搜查令,才可以要求供應者揭露其保有之資訊。
3.要求執法部門應於取得資料的10天內向資料被揭露者提供相關證明,如涉及政府單位者則縮短至3天。
雖然EPA在眾議院內獲得美國兩黨的一致通過,但仍須經參議院下一波的投票表決,才能決定本案是否得順利通過。
FairFax媒體出版公司是澳洲財經評論(Australian Financial Review,以下簡稱AFR)報紙的出版商,控告Lexis Nexis資料庫所提供的ABIX服務,提供不同的來源的每日新聞標題和摘要,包括AFR的新聞),是侵害FairFax新聞標題的著作權,同時,FairFax要求Lexis Nexis停止使用這些文字。 澳洲聯邦法院認為:1.著作權法不保護新聞標題,因為新聞標題太過簡短;2.證據顯示新聞標題並不能做為共同著作的一部分;3.新聞標題非整篇新聞最實質的部份。4.因為LexisNexis所使用的新聞標題可以構成合理使用。澳洲著作權法中,依據使用的性質與目的若使用新聞報導內容,是可以作為合理使用的主張。也就是說即使新聞標題受到著作權法保護,但LexisNexis仍可以主張合理使用,不會有侵害著作權的疑慮。 法官Annabelle Bennet表示:「新聞標題普遍來說就如同書名,太簡單且太短是不能受到著作權法中的語文著作保護。新聞標題的功能像是一篇文章的篇名,也像針對主題用濃縮的方式簡短的敘述,就如同像是一本書的書名長度。普遍來說,新聞標題太過簡短以致於不能被認為是語文著作,就像是標識(LOGO)在著作權法的評價上不夠重要以致於不能作為美術著作,即使這些是花費技能和勞力所創造的。
海藻抗溫室 日明年試驗日本海洋科學家最近提出一項對抗溫室效應的新計畫,準備在日本東北部外海養殖大片海藻,吸收大氣中二氧化碳。且這些海藻還可以轉化成生物質能,為人類提供大量乾淨的能源。相關技術一旦試驗成功,日後將可望納入聯合國氣候變化綱要公約京都議定書的修訂條文,並推廣到其他濱海國家。 過去科學家一直認為,海藻生長過程中雖然會吸收大氣中的二氧化碳,但是排出的醣類物質也會被細菌分解,釋出的有機碳將再次轉變成二氧化碳。不過歐洲海洋學家最近研究發現,這些海藻排出物會帶著有機碳快速沉入深海,不至於影響大氣中的二氧化碳濃度。 計畫領導人、東京海洋大學能登谷教授的團隊打算在海上安置一百個面積一百平方公里的特製網,用以固著兩種生長快速的藻類-馬尾藻與「 Sostera marina 」,形成一百座飄浮的海藻田。一年之後,每一座海藻田會生長成重達廿七萬噸的龐然巨物,並且在光合作用過程中吸收卅六噸的二氧化碳。海藻田上將配備電子裝置,讓科學家以全球衛星定位系統追蹤,一旦飄移而影響航道,就必須拖回原來位置。這些海藻田最後將拖回陸地,經過超高溫技術處理,產生氫與一氧化碳,再轉化為燃燒時不會釋出二氧化碳的生物燃料,可謂一舉數得。 美國在一九七○年代曾試驗類似的「巨藻計畫」,但後來因為大量生長後回收的海藻難以處理,計畫因此束之高閣。但日本科學家突破這項難關,設計出可行的海藻再利用方法,於是讓「以海藻吸收二氧化碳」的構想重現希望。
從國外案例談軟體漏洞資訊公布與著作權防盜拷措施 美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。