三月上旬甫於美國新奧爾良舉行的毒物學學會研討會,多數的論文將重點放在肺部暴露於奈米微粒的影響。例如來自美國太空總署休士頓太空中心的John T. James與其同僚,將奈米微粒噴入老鼠的呼吸道,於一週與三個月後再進行檢驗,結果發現儘管類似煤煙的碳奈米球狀物不會造成傷害,可是相當質量的商品化碳奈米管卻會顯著的損及肺部組織,甚至殺死幾隻老鼠。研究人員發現巨噬細胞(macrophages)會困住奈米管,不過隨之死亡。James認為研究小組所使用的劑量並不是非常不切實際,他估計在目前的美國聯邦碳吸入量法規限制下,相對於人體重量,工作人員在17天之內會吸入相等的劑量。
美國西維吉尼亞州國家職業安全與健康協會的Petia Simeonova與其同事,也觀察到接受類似劑量碳奈米管的老鼠會產生富含微粒的肺肉芽腫(granulomas),研究人員也對心臟與主動脈的粒線體DNA進行損害檢查,粒線體傷害為發生動脈硬化(atherosclerosis)的先兆。
日本鳥取大學 (Tottori University )Akinori Shimada報告了首例奈米微粒從肺部移動到血液的系列圖像,碳奈米管一接觸到老鼠肺部極細小的氣管,即湧入穿過表面細胞的微小間隙,並且鑽入毛細血管,Shimada推測此會造成凝集甚至血栓。
羅徹斯特大學Alison Elder報告兔子吸入碳奈米球之後,增大了血液凝塊的敏感性。為了模擬糟糕的都市空氣污染,研究人員給予兔子每立方米包含70微克奈米球體微粒的空氣超過三小時,再觀察發生血液凝塊的時間,結果呼吸奈米微粒的兔子,一天之內即發生血液凝塊現象。因為發生的很快,所以Alison Elder認為奈米微粒是從肺部移動進入血流,而非從肺部送出凝血劑(clotting agents )。
本文為「經濟部產業技術司科技專案成果」
美國國家安全局(National Security Agency, NSA)於2022年11月10日發布「軟體記憶體安全須知」(“Software Memory Safety” Cybersecurity Information Sheet),說明目前近70%之漏洞係因記憶體安全問題所致,為協助開發者預防記憶體安全問題與提升安全性,NSA提出具體建議如下: 1.使用可保障記憶體安全之程式語言(Memory safe languages):建議使用C#、Go、Java、Ruby、Rust與Swift等可自動管理記憶體之程式語言,以取代C與C++等無法保障記憶體安全之程式語言。 2.進行安全測試強化應用程式安全:建議使用靜態(Static Application Security Testing, SAST)與動態(Dynamic Application Security Testing, DAST)安全測試等多種工具,增加發現記憶體使用與記憶體流失等問題的機會。 3.強化弱點攻擊防護措施(Anti-exploitation features):重視編譯(Compilation)與執行(Execution)之環境,以及利用控制流程防護(Control Flow Guard, CFG)、位址空間組態隨機載入(Address space layout randomization, ASLR)與資料執行防護(Data Execution Prevention, DEP)等措施均有助於降低漏洞被利用的機率。 搭配多種積極措施增加安全性:縱使使用可保障記憶體安全之程式語言,亦無法完全避免風險,因此建議再搭配編譯器選項(Compiler option)、工具分析及作業系統配置等措施增加安全性。
英政府推動開源碼計劃由英國政府所資助成立的一項計畫,希望透過開放原始碼廠商目錄及程式碼資料庫的建立等措施,加速公家單位對開放原始碼軟體的採用。這項名為「開放原始碼學院」( Open Source Academy )的計畫,是由副首相辦公室( Office of the Deputy Prime Minister )的電子創新投資計畫所贊助,預計在本月內將正式宣佈。 參與該計畫的開放原始碼協會( Open Source Consortium )執行總監表示,英國的公家機關在開放原始碼的採用上落後於歐洲各國,而這項計畫將改變目前的現況。地方政府已經可以透過網站開始分享程式碼,例如「地方政府軟體協會」( Local Authority Software Consortium )的網站。這項計畫裡的其他專案還包括了政府機構的入口網站計畫,可藉以尋找開放原始碼供應商的資訊;以及開放原始碼顧問的專業鑑定模式。
聯合國教科文組織發布《人工智慧倫理建議書》草案聯合國教科文組織於2020年9月發布《人工智慧倫理建議書》草案(First Draft Of The Recommendation On The Ethics Of Artificial Intelligence)(下稱建議書),以全球性的視野與觀點出發,為第一份全球性關於人工智慧倫理的建議書,試圖對人工智慧倫理作出框架性規定,對照其他區域性組織或個別國家人工智慧倫理準則或原則,著重之處稍有差異。該建議書係由組織總幹事Audrey Azoulay於2020年3月任命24位在人工智慧倫理學方面之跨領域專家,組成專家小組(AD HOC EXPERT GROUP, AHEG),以《建議書》的形式起草全球標準文書。 其主要內容提到六大價值觀:(一)人性尊嚴(Human dignity)、(二)基本人權和自由(Human rights and fundamental freedoms)、(三)不遺漏任何人(Leaving no one behind)、(四)和諧共生(Living in harmony)、(五)可信賴(Trustworthiness)、(六)環境保護(Protection of the Environment)。其中尤值關注處在於,建議書除強調人工智慧的技術、資料及研究需要進行全球範圍的共享外,相當重視世界上所有的國家及地區在人工智慧領域是否能均衡發展。特別在六大價值觀中提出「不遺漏任何人」觀點,也同時呼應了聯合國永續發展目標(Sustainable Development Goals, SDGs)的倡議。在人工智慧技術發展過程中,開發中國家(global south)及相對弱勢的群體是相當容易被忽略的。人工智慧蓬勃發展的時代,若某些群體或個體成為技術弱勢者,不僅在技術發展上有落差,更可能使人工智慧系統容易產生歧視、偏見、資訊和知識鴻溝,其後更將導致全球不平等問題的挑戰。 由專家小組起草的建議書草案已於2020年9月提交給聯合國成員國,作為對建議書的初步報告。該報告將提供給各會員國,並同步提交給預定於2021年召開的政府專家委員會,最後預計於2021年底的提交聯合國教科文組織大會。