歐盟航空安全局(European Union Aviation Safety Agency, EASA)於2022年10月13日發布全球首件「最大起飛重量不逾六百公斤之無人機系統噪音量測指南」(Guidelines on Noise Measurement of Unmanned Aircraft Systems Lighter than 600 kg Operating in the Specific Category),適用於各式各樣的無人機設計,包括多旋翼機(multicopters)、固定翼航空器(fixed-wing aircraft)、直升機與動力起降航空器(powered-lift aircraft)等。
該指南旨在提供低度與中度風險(Low and Medium Risk)特定類別無人機運行時,具一致性的噪音量測程序與方法。該方法係考量實際層面與心理聲學(psychoacoustics),即有關人類對於無人機聲音的感知,設計為提供可重複且準確量測噪音,可量測最大起飛重量(Maximum Take-Off Weight, MTOM)小於600公斤的無人機,以落實歐盟環境保護的高度水準,並防止噪音對人體健康的重大影響。而所謂特定類別(specific category)包括包裹遞送、電力巡檢、鳥類管制(bird control)、測繪服務(mapping services)、空中監視(aerial surveillance)等活動。
此份指南雖不具強制性,亦非無人機認證規範,然而噪音是許多歐洲民眾所關注的問題,各國航空主管機關仍可以該指南為基準要求營運商,使之在自然公園或人口稠密區域等敏感環境運行無人機時可降低噪音。同時,無人機製造商、營運商或噪音量測組織,亦可依據該指南確立與特定設計及操作相關的噪音水準。此外,可將由此而生的噪音水準報告提供給EASA,以建立可供營運商與主管機關使用的線上公眾資料庫(online public repository)。
本文為「經濟部產業技術司科技專案成果」
歐盟資通安全局(European Union Agency for Cybersecurity, ENISA)於2020年4月25日以歐盟網路安全驗證框架(EU cybersecurity certification framework)檢視現行安全軟體開發及維護之方式與標準,並公布《提升歐盟軟體安全性》(Advancing Software Security in the EU)研究報告。歐盟資通安全局後續將以該研究報告協助產品、服務及軟體開發之驗證,並期望能夠成為執行歐盟網路安全驗證框架相關利害關係人之非強制性參考文件之一。 本報告指出由於安全軟體已普遍應用於日常商品與服務當中,但目前針對軟體安全事故並無相對應之安全守則及技術,故為提高軟體安全層級並緩解目前已知之軟體安全威脅,應針對安全軟體開發及維護進行規範並驗證。 報告中除了針對軟體安全提出其應具備之要素、概述現行安全軟體開發方式及標準之缺點外,亦提出若以歐盟網路安全驗證框架針對軟體開發方式進行驗證時可考量之一些實際做法,包括: 已驗證之資訊與通訊科技(Information and Communication Technology, ICT)產品、服務或流程供應商或製造商,針對資料庫之部署及維護,除探討防止資料洩漏之方式外,尚應考量產品、服務或流程驗證過程中,進行資料共享會面臨之安全威脅以及緩解之方式。 應與歐洲標準組織(European Standards Organizations, ESOs)及標準制定組織(Standards Developing Organization, SDOs)合作。 建立一些針對軟體開發、維護及操作準則以補充現有歐盟網路安全驗證方案(EU cybersecurity certification schemes)。 針對現行不一致之軟體開發及維護規範,應考量建立較寬鬆之合規性評估(conformity assessment)標準。 借鏡現有經驗和專業知識,促進歐盟網絡安全驗證框架之適用。
美國環境保護署(EPA)發布顯著新種使用規則(SNURs),將影響單壁及多壁奈米碳管(Carbon Nanotubes)之使用美國環境保護署(Environmental Protection Agency,以下簡稱EPA)於2010年9月17日聯邦政府公報中,依據毒性物質管制法(Toxic Substances Control Act,以下簡稱TSCA)section 5(a)(2)授權,發布了顯著新種使用規則(Significant New Use Rules,以下簡稱SNURs)的最終規則(final rule)。此項規則於2010年10月18日生效,任何想要製造、輸入以及加工單壁奈米碳管(single-walled carbon nanotubes,以下簡稱SWCNTs)及多壁奈米碳管(multi-wall carbon nanotubes,以下簡稱MWCNTs)兩項化學物質者,必須依照TSCA section 5(a)(1)要求,在進行上述利用活動的至少90天前,報經EPA核准,否則不得使用。 事實上,EPA曾於前(2009)年6月24日發布上述SNURs的直接最終規則(direct final rule),徵詢公眾意見,並在同年8月21日撤回該規則。在重新提案的規則中,主要是新增SWCNTs、MWCNTs釋放於水中的顯著新種使用態樣,並將已完全反應、結合或嵌入已完全反應之聚合物基(polymer matrix)以及嵌入不再進行機械加工外其他處理之永久硬性聚合物形式(permanent solid polymer form)之SWCNTs、MWCNTs物質,排除在新SNURs適用範圍之外。 目前,依照TSCA section 5(e)之規定,若系爭之化學物質已列名於TSCA section 8(b)所建立之現存(existing)化學物質目錄(INVENTORY)中,其他化學物質生產者欲生產該種化學物質時,並不需再向EFA進行通報程序。然而,若EFA對該列名之化學物質曾發出TSCA section 5(e)下之具風險性命令(risk-based order),則相關之化學物質生產者須於生產前依據TSCA section 5(a)(2)規範中之SNURs規定通報EFA,使得EFA於生產前仍有再次檢驗該系爭化學物質的機會。 這一次,EPA以制訂SNURs之方式,要求所有製造、輸入、加工該項化學物質者,有義務通報任何與原同意命令所定條款不同的使用活動。這樣的規範變動,預計將對奈米材料的製造及運用活動造成不小的影響。
開原碼授權 印度要走自己的路印度理工學院的 Deepak Phatak 啟動了一項建立 Knowledge Public License (知識公共授權,簡稱 "KPL" )的計畫,這種授權計畫允許程式人員跟他人分享自己的點子,但是同時保留軟體的修改權。它很像柏克萊軟體發行計畫或 MIT 授權計畫。目的是希望為建立一種環境,開發者既可以借助開放原始碼的合作力量,又能保護個人的利益。這項計畫還有助於舒緩開原碼運動和專屬軟體商之間日趨緊張的關係。 Phatak 的授權計畫有著先天的數量優勢。由於委外的興起和繁榮,印度已經成長為一個重要的軟體發展中心。 Phatak 也發起了一項 Ekalavya 計畫,鼓勵大家提出開原碼運動的新概念。
德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。 諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。 綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。