三月上旬甫於美國新奧爾良舉行的毒物學學會研討會,多數的論文將重點放在肺部暴露於奈米微粒的影響。例如來自美國太空總署休士頓太空中心的John T. James與其同僚,將奈米微粒噴入老鼠的呼吸道,於一週與三個月後再進行檢驗,結果發現儘管類似煤煙的碳奈米球狀物不會造成傷害,可是相當質量的商品化碳奈米管卻會顯著的損及肺部組織,甚至殺死幾隻老鼠。研究人員發現巨噬細胞(macrophages)會困住奈米管,不過隨之死亡。James認為研究小組所使用的劑量並不是非常不切實際,他估計在目前的美國聯邦碳吸入量法規限制下,相對於人體重量,工作人員在17天之內會吸入相等的劑量。 美國西維吉尼亞州國家職業安全與健康協會的Petia Simeonova與其同事,也觀察到接受類似劑量碳奈米管的老鼠會產生富含微粒的肺肉芽腫(granulomas),研究人員也對心臟與主動脈的粒線體DNA進行損害檢查,粒線體傷害為發生動脈硬化(atherosclerosis)的先兆。 日本鳥取大學 (Tottori University )Akinori Shimada報告了首例奈米微粒從肺部移動到血液的系列圖像,碳奈米管一接觸到老鼠肺部極細小的氣管,即湧入穿過表面細胞的微小間隙,並且鑽入毛細血管,Shimada推測此會造成凝集甚至血栓。 羅徹斯特大學Alison Elder報告兔子吸入碳奈米球之後,增大了血液凝塊的敏感性。為了模擬糟糕的都市空氣污染,研究人員給予兔子每立方米包含70微克奈米球體微粒的空氣超過三小時,再觀察發生血液凝塊的時間,結果呼吸奈米微粒的兔子,一天之內即發生血液凝塊現象。因為發生的很快,所以Alison Elder認為奈米微粒是從肺部移動進入血流,而非從肺部送出凝血劑(clotting agents )。
RFID應用發展與相關法制座談會紀實 法國科學家現正積極研究奈米碳管的毒性評估方式法國國家研究會議﹙French National Research Council﹙CNRS﹚﹚的科學家,過去三年持續投入奈米碳管的毒性研究,包括奈米管在環境中所引起的污染反應、其對人體的危害,以及如何以較清潔的方式從事奈米碳管的生產製造。這個研究計畫將側重於目前常為產業利用的各式奈米管。 目前,奈米碳管在全球的製造量高達每年數百噸之譜。優越的機械及電子性能,促使奈米碳管被大量運用在平面螢幕及汽車產業當中,甚至利用在運動產品之上。然而,除了擴增的應用領域之外,其對人體健康及環境的影響迄今尚未受到重視。使用奈米管的物質通常被當做一般廢棄物來處理,就其對於環境的影響,人們更是一無所知。 法國CNRS的科學家希望能夠釐清這樣的問題。目前,研究人員的觀察重點將在奈米碳管如何影響水生環境﹙aquatic environments﹚,以及兩棲生物在奈米管流佈的環境中如何生存及反應。此外,科學家們同時觀察奈米材料如何影響人體健康:他們正在觀察及研究巨嗜球﹙macrophage cells﹚如何與奈米碳管互動,以及在這種暴露環境下,實驗用鼠的肺部是否會產生發炎症狀。經由初步的實驗,科學家們發現人體會將奈米管視為異物,進而引發發炎反應。 接下來,CNRS會進一步研究如何以更清潔且對環境友善的方式來製造奈米管。
人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。