法國國會於2009年04月通過名為「創作與網路法」(Creation and Internet law)的反盜版法案,凡是非法下載遭發覺的網路使用者,執法單位將有權中斷其網路連線,若非法下載遭發覺超過兩次,執法單位得中斷其網路連線長達一年。而此次通過的新法,將取代現行非法下載者得處以最高3年以下的有期徒刑及30萬歐元罰款的規定。
此項法案受到法國當地權威音樂人士如Johnny Hallyday及Charles Aznavour等人的大力擁護,共有超過一萬名的藝術家聯署支持該項法案,支持者認為新法可望阻絕非法的影片及音樂盜版行為,法國文化部長Christine Albanel亦表示其期待新法可以解決文化商品頻遭侵害的現象。
但此項法案亦卻飽受消費團體的批評,部分反對者更直言新法不啻侵犯了公眾及個人的自由。法國消費者權益保護組織「消費者聯合會」(UFC-Que Choisir)抨擊新法是「司法怪物」(legal monstrosity),其表示網路使用者遭到中斷連線前,根本毫無機會回應執法單位的指控。另一個代表多家高科技與電子商務業者的協會,亦向政府請求在產業界提出替代解決方案前,暫緩實施該項法案。
美國有線電視新聞網(Cable News Network, CNN)通過美國聯邦航空總署(Federal Aviation Administration, FAA)之審查,允許使用小型無人機(small Unmanned Aerial Vehicle, sUAS)直接穿越人群中(flying directly over a person or people)進行拍攝採訪,為美國目前第一件允許在商業目的中使用小型無人機自由穿梭人群之豁免核准案。 美國於2016年8月通過聯邦法規第107篇(14 CFR Part 107)又稱小型無人機規則(small UAS rule),規定關於小型無人機之操作規範。其中該規則列舉7種操作禁止事項,須事前經由美國聯邦航空總署豁免方得進行操作(又稱Part 107 Waiver),分別為:1.夜間飛行、2.直接穿越人群飛行、3.經由行進車輛或飛機進行飛行、4.一人操作多架無人機、5.視距外飛行、6.飛行超過400英呎、7.飛行區域近機場或禁航區附近。 CNN本次豁免項目即第107.39條的「直接穿越人群飛行」之規定,該規定除飛越對象為操作者本身,或僅飛越在建築物、車輛上並不受禁止規範外,只要無人機穿越人群皆須經美國聯邦航空總署審查同意方得操作,否則將面臨重罰。此一豁免通過後,改變以往記者與攝影師合作之拍攝手法,改由受訪者直接接受無人機採訪,除節省人力資源外也能突破地勢之空間限制,對於商業營運模式將有重大變革。 然而由於直接穿越人群飛行之風險性極高,因此在本次豁免條件中亦有嚴格限制,除只能使用申請時之特定無人機外,並應該嚴格遵守製造商之使用說明。另外,不得擅自改變無人機之設計或在未經允許下額外加裝配備。同時飛行高度亦不得高於海平面150英呎,並須定期檢測維修。最後每次操作皆須詳細記錄並保存,包含機械故障時須立即回報。
法國科學家現正積極研究奈米碳管的毒性評估方式法國國家研究會議﹙French National Research Council﹙CNRS﹚﹚的科學家,過去三年持續投入奈米碳管的毒性研究,包括奈米管在環境中所引起的污染反應、其對人體的危害,以及如何以較清潔的方式從事奈米碳管的生產製造。這個研究計畫將側重於目前常為產業利用的各式奈米管。 目前,奈米碳管在全球的製造量高達每年數百噸之譜。優越的機械及電子性能,促使奈米碳管被大量運用在平面螢幕及汽車產業當中,甚至利用在運動產品之上。然而,除了擴增的應用領域之外,其對人體健康及環境的影響迄今尚未受到重視。使用奈米管的物質通常被當做一般廢棄物來處理,就其對於環境的影響,人們更是一無所知。 法國CNRS的科學家希望能夠釐清這樣的問題。目前,研究人員的觀察重點將在奈米碳管如何影響水生環境﹙aquatic environments﹚,以及兩棲生物在奈米管流佈的環境中如何生存及反應。此外,科學家們同時觀察奈米材料如何影響人體健康:他們正在觀察及研究巨嗜球﹙macrophage cells﹚如何與奈米碳管互動,以及在這種暴露環境下,實驗用鼠的肺部是否會產生發炎症狀。經由初步的實驗,科學家們發現人體會將奈米管視為異物,進而引發發炎反應。 接下來,CNRS會進一步研究如何以更清潔且對環境友善的方式來製造奈米管。
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。