新加坡通訊及新聞部(Ministry of Communications and Information, MCI)與新加坡個人資料保護委員會(Personal Data Protection Commission, PDPC)於西元2020年5月14日至28日間針對其「個人資料保護法修正草案」進行民眾意見諮詢,總共收到87份回覆。綜合民眾回覆之意見後,同年10月5日,於議會提出了「個人資料保護法修正草案」,修正重點如下:
美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。 美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。 倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。 美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。 除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。
美國重啟核電廠興建,並鼓勵小型核能反應爐創新技術研發美國雖將能源列為國家長期的能源政策目標,自1990年代後期,亦投入核能的安全性、環境建置及研發補助等,但最近因將重點放在其他替代性能源的開發,因此在核能方面的計畫稍微減少,尤其自1979年美國三哩島核電廠(Three-Miles Island Nuclear Generating Station)發生事故後,美國三十年來未再興建任何核電廠。但由於核能發電的高效率與不會排放二氧化碳的低污染,因此美國政府將之列為重點發展項目,強調美國政府的能源政策是要發展任何可能的能源,包括合核能,以提升在全球潔淨能源的競爭優勢。 美國總統歐巴馬表示,為了維持能源供需的穩定,以及避免氣候的惡劣變遷,有必要重啟美國核能產業,持續提高核能的供應量。因此於2011年12月經核子管理委員會(Nuclear Regulatory Commission)通過、2012年2月再次於投入核電廠的興建,於喬治亞洲Vogtle核電廠核准興建兩座新的核能反應爐,並透過成本分擔協議(cost-share agreement)投入2億美元,協助設計認證及許可。 此外,並於同年3月宣布投入4. 5億美元於五年內支持兩座自製的小型核能反應爐(small modular nuclear reactor,SMR)的設計、認證及核准,希望能輸出這些自製的反應爐,提升全球潔淨能源的競爭力。這些反應爐約只佔核能廠的三分之一面積,具有安全的建築設計,小型反應爐能在工廠內製造,並運輸到定點安裝,能節省成本及建造的時間。且其最理想的地方在於其體積小,能使用在小型智慧電網級一些無法容納大型反應爐的地方,其運用能更有彈性,能增加經濟效益。 國政府希望透過與私人企業的合作,帶領美國在全球核能科技及製造的領先地位。因此希望能源部希望此計畫能經核子管理委員會的許可,此一小型核能反應爐的計畫總金額為9億美元,透過與私人企業成本分擔的協議,其中50% 由國會撥款,另50%則由私人企業投資,並於2022年商業化,取得在全球潔淨能源的競爭優勢地位。
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。