美國環保署(United States Environmental Protection Agency, EPA)為限制汽車廢氣排放污染物對環境造成的危害,根據美國《潔淨空氣法》(Clean Air Act, CAA)的授權,於2023年4月12日提出《2027年式輕型、中型商用車車型污染物排放標準》(Multi-Pollutant Emissions Standards for Model Years 2027 and Later Light-Duty and Medium-Duty Vehicles),以及《重型商用車溫室氣體排放標準-第三階段》(Greenhouse Gas Emissions Standards for Heavy-Duty Vehicles – Phase 3)這兩件汽車廢氣排放新標準,期加速電動汽車(Electric Vehicle, EVs)發展、加速潔淨交通轉型。
《2027年式輕型、中型商用車車型污染物排放標準》以及《重型商用車溫室氣體排放標準-第三階段》分別針對2027年到2032年所出廠的輕型商用車、中型商用車以及重型商用車的汽車廢氣排放標準做出更嚴格的新規範,預計將成為美國迄今為止最嚴格的汽車廢氣排放標準。目標是到2032年時,輕型商用車行駛每英里二氧化碳平均排放量下降至82公克,溫室氣體排放量相較於2026年車型年標準將減少56%;中型商用車行駛每英里二氧化碳平均排放量下降至275公克,溫室氣體排放量相較於2026年車型年標準則將減少44%。至於重型商用車,以重型拖曳機(heavy-haul tractors)為例,將從2027年車型年行駛每噸英里二氧化碳平均排放量48克,到2032年時下降至41公克左右。
根據這兩件汽車廢氣排放新標準,並未禁止化石燃料汽車的製造或銷售、亦未規範要求電動汽車的年製造量或年銷售量要達多少數量或比率,而是為汽車限定更嚴格的廢氣排放標準,因此,仍無疑地將迫使汽車製造商減少販售化石燃料汽車、加速推動電動汽車生產的腳步以符合新的排放標準規定。環保署預測汽車製造商在為符標準所採的相應作法之下將會大幅提高電動汽車在新車的銷售比率:到2032年時,電動汽車將佔輕型商用車新車銷量的 67%、中型商用車新車銷量的46%。而此累計可望到2055年時減少約100億噸的二氧化碳排放,相當於美國2022年二氧化碳總排放量的兩倍多。將有效減少有害空氣汙染、並大幅降低因空氣汙染所致的罹病風險以及過早死亡等危險。
藉由新的排放標準,將逐步淘汰化石燃料汽車的生產,加速潔淨交通轉型,有效應對氣候危機並提高全國各社區空氣品質。
美國聯邦貿易委員會(The Federal Trade Commission, FTC)於2023年1月5日提出聯邦規則彙編(Code of Federal Regulations, CFR)之修正草案,其基於競業禁止條款(Non-Compete Clauses)將阻止員工離職及員工之競爭、降低員工的薪資、阻止新企業之形成及阻礙創新等立法目的,擬禁止僱用人及受僱人間約定競業禁止條款及使現有的競業禁止條款歸於無效。 美國亦有相關報導提到員工流動於技術領域尤為常見,因技術領域之企業對營業秘密高度重視,故對於員工離職到競爭對手會特別留意,例如加州的許多企業(尤其是位於矽谷之企業)會與員工簽署保密合約規範對於機密資訊的處理,部分合約甚至包含競業禁止條款以限制員工於離職後至競爭對手處工作,不論係保密合約或競業禁止條款,其目的均係延遲或避免員工於離職後帶走公司敏感資訊並將其用於對前僱主不利之用途。 聯邦規則之修正草案一旦通過,未來美國的企業將不得再以約定競業禁止條款之方式限制離職員工至競爭對手處工作,但企業仍可透過在員工離職前或離職後採取相關措施,盡早發現並降低離職員工竊取公司敏感資訊的風險,可採取的措施例如: 1.留意員工離職前是否有未經授權或為完成工作以外之目的複製或存取公司的資料之行為,意即,這些蒐集來的資訊是否將用於新公司的工作(如改良競爭對手的產品、擴大競爭對手的客群等); 2.對員工個人工作設備(如:公司提供之筆電及手機)或網路存取紀錄等進行調查,檢視是否有異常檔案存取紀錄或異常行為(例如是否突然大量刪除/複製檔案); 3.了解員工的離職原因及於離職後的規劃——可以了解員工未來可能從事的職業、就職的企業以調整離職前調查的程度; 4.留意員工於找到新雇主後是否仍持續使用公司的營業祕密——新雇主亦須留意的是,新進員工是否仍持續使用前公司的營業秘密,以避免公司被訴。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
歐盟執委會認可巴西資料保護能力,啟動適足性認定程序歐盟執委會(European Commission)於2025年9月4日提出對於巴西的適足性認定草案,並且開始啟動相關程序。根據《一般資料保護規則》第45條規定,如歐盟境內之個人資料將傳輸至第三國或國際組織時,須經由歐盟執委會認定該第三國、第三國內之特定部門或國際組織之資料保護水準與歐盟境內基本相同,使得為之。該認定即為「適足性認定」,目前包含日本、韓國、加拿大、阿根廷及烏拉圭皆已取得適足性認定。 本次歐盟執委會所提出之適足性認定草案中,審酌了巴西《一般資料保護法》(Lei Geral de Proteção de Dados, LGPD)當中的目的限制、必要性、透明性、安全性及問責機制等原則,以及個資監管與執法之獨立機構「巴西資料保護局」(Autoridade Nacional de Proteção de Dados, ANPD)之角色,認定巴西國內的個人資料保護水準已達到與GDPR所要保護水準相同。 此外,ANPD於2024年發布,旨在使巴西具有與GDPR等隱私框架相同之跨境傳輸規範之國際資料傳輸規則,ANPS正依照該規則進行對歐盟進行法律評估,認定歐盟屬於符合LGPD之適當司法管轄區。如巴西通過對歐盟評估,將建立起鞏固雙方之間的監管力度及法律承認的互相承認機制。 歐盟執委會提出對於巴西之適足性認定草案,後續須經由歐洲資料保護委員會(European Data Protection Board, EDPB)審查並提出意見,並經過成員國代表參酌EDPB提出之意見並審查批准後,始得由歐盟執委會通過適足性認定。通過適足性認定後,將促進國際資料流動,並加強巴西與歐盟之間資料保護與監管領域方面的合作。
德國民眾對奈米科技關切評估報告出爐為了瞭解德國消費者對於市面上眾多應用「奈米」科技之消費產品的想法,德國聯邦風險評估研究所(Bundesinstitut für Risikobewertung,BfR)於2007年抽樣調查一千位消費者,並於該年底公布調查結果。根據該問卷調查結果顯示,超過三分之二(66%)受訪者對於奈米科技發展持樂觀態度,並認為應該支持奈米科技的持續發展,並且認為奈米科技改善了生活品質以及其帶來的效益勝過風險。 但是,對於不同領域所應用之奈米科技,受訪者卻表現出不同的態度。因此該研究所所長Andreas Hensel認為,消費者不是依據事實為評價,而是依據「感性標準」。也就是說,他們所「感覺到」的風險在他們理解新科技時扮演重要角色。 相較於2004年所做的問卷調查,目前約有52%的受訪者聽過奈米概念,之前的調查結果只有15%。多數受訪者相信奈米可以幫助醫學領域的發展;其也相信應用奈米於顏料、漆料可提高耐刮與耐磨之能力。在紡織品領域也一樣,民眾相信防污的產品;受到民眾接受的還包括奈米科技在包裝材料以及防曬產品領域之應用。不過,對於其他化妝品卻只有53%的受訪者相信奈米的改善功能。絕大多數受訪者都拒絕將奈米科技應用於食品:69%受訪者拒絕添加「奈米」於調味料,即使奈米可以防止結塊;而就算因此可以延長食物保存期限,也有高達84%的受訪者拒絕在食物中添加奈米微粒。 多數的消費者獲取奈米科技資訊主要來自於大眾媒體,如電視、報紙、期刊與網際網路。但是他們是否相信該資訊,則取決於提供者為何,最受信賴之資訊來自於消費者組織,如消費者保護團體以及產品檢測基金會(Stiftung-Warentest)以及科學界(92%),最不受信賴的資訊則來自於經濟(32%)與政治(23%)。
美國國防部「人工智慧國防運用倫理準則」美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。 美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。 倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。 美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。 除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。