當前科學家正極力從廢棄的生物物質(biomass)中,尋找可以做為燃料使用的資源(biofuel)。使用生物燃料的概念與全球氣候變遷以及石油價格一再攀高有關,生物燃料是指在不影響食物供應的前提下,使用木材、稻桿或麥桿、庭園廢棄物等作為第二代的燃料來源。不過在鼓勵發展生物燃料之餘,發展此一領域之技術卻亦有不可忽略的問題有待解決。 以英國為例,英國法律規定在2010年以前,英國政府必須確保所有公路運輸使用的燃料中,至少有5%是使用生物燃料;而最近英國的能源檢視報告則建議,在2015年前,此項生物燃料使用的門檻值應達10%。英國國家非食用作物研究中心(National Non-Food Crops Centre, NNFCC)近期也提出報告,指出英國每年農作收成後皆剩餘大量的小麥、甜菜,若能輔以更多的政府促進措施,例如租稅減免,則達成2010年5%的門檻指標,並非難事。不過若想要達成2015年10%的指標,英國政府則必須另外從國外進口生物燃料。 生物廢棄物的利用指的是把各地方的廢棄物以及非食用作物拿來轉化成為生物燃料。使用生物燃料最大的缺點是建置成本(start-up costs)過高,舉例來說,使用甜菜或黃豆來生產生質柴油(biodiesel)的成本,每英噸約為700至800歐元,其中把生物廢棄物液態化的過程(biomass to liquids (BTL) process),約需每英噸450至500歐元;而要建置一個第一代生物燃料廠乃至運作,其投資費用高達5千萬歐元,第二代生物燃料的生產所需建置成本,則可能為前述數字的五至十倍。有鑑於此,NNFCC透過經濟模式的運算,建議英國政府應對第二代生物燃料廠提供每公升至少35%的租稅減免優惠(目前英國政府僅給予每公升20%的租稅減免優惠),始能鼓勵民間部門進行相關投資。 另一項發展生物燃料的隱憂則是,由於生物燃料與食物的來源都是取自於自然界的同一資源,發展生物燃料是否反而可能造成食物與燃料的爭戰中,侵蝕自然界的資源,最後反而導致各種價格的上升。
世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。
愛爾蘭資料保護委員會發布《控制者資料安全指引》,提供資料控制者關於個人資料安全措施之依循指引愛爾蘭資料保護委員會(Ireland's Data Protection Commission)於今(2020)年2月公布控制者資料安全指引(Guidance for Controllers on Data Security),愛爾蘭資料保護委員會表示本指引亦適用於資料處理者。指引內針對17個面向說明控制者於資料處理時應考量之安全措施,分別為:(1)資料蒐集與留存政策(Data Collection and Retention Policies);(2)存取控制(Access Controls);(3)螢幕保護程式(Automatic Screen Savers);(4)加密(Encryption);(5)防毒軟體(Anti-Virus Software);(6)防火牆(Firewalls)(7)程式修補更新(Software Patching);(8)遠端存取(Remote Access);(9)無線網路(Wireless Networks);(10)可攜式設備(Portable Devices);(11)檔案日誌及軌跡紀錄(Logs and Audit Trails);(12)備份系統(Back-Up Systems);(13)事故應變計畫(Incident Response Plans);(14)設備汰除(Disposal of Equipment);(15)實體安全(Physical Security);(16)人為因素(The Human Factor);(17)認證(Certification)。 此外,愛爾蘭資料保護委員會還強調,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)第25條與第32條有關資料控制者之義務,可透過「從設計與預設機制著手資料保護(Data protection by design and by default)」,與適當的技術及組織措施等方式,並考量現有技術、執行成本、處理之本質、範圍、脈絡及目的與對當事人權利及自由之風險可能性與嚴重性等因素,以確保其安全措施符合相應資料風險之安全等級。 最後,愛爾蘭資料保護委員會表示資料控制者更應確保其組織內員工瞭解該等安全措施並確實遵守,資料控制者應於制定其資料安全政策時考量到本指引所列各項目,以履行其保護資料安全之義務。
日本經產省預計向國會提出「不正競爭防止法」修正草案進行審議