德國聯邦網路局(Bundesnetzagentur) 法規問題研究工作小組(Wissenschaftlicher Arbeitskreis für Regulierungsfragen)於2015年11月18日提出「在OTT服務業者重要性提升背景下電信與媒體法制演變進程」意見報告(Evolution der Regulierung in den Telekommunikations- und Mediensektoren angesichts der Relevanzzunahme von OTT-Anbietern)。此報告針對OTT服務提出以下建議:
1. 是否電信服務(Telekommunikationsdienst)定義僅侷限於「電子信號的傳送」。倘若如此,是否亦須將OTT-I類型服務,亦即網路語音通話或電子郵件服務(例如:Skype, Gmail等),如同歸類並視電信服務而所規範。基於OTT-I服務的性質跟傳統通訊服務相似度很高(例如電話通訊服務),因此是否傳統電信服務定義須要涵蓋OTT-I服務,仍待明確的法制規範。
2. 倘若OTT-I種類的服務被歸類為「電信服務」,依此邏輯是否須要遵守德國電信法(Telekommunikationsgesetz)相關的傳統電信服務義務,像是緊急電話撥打義務、消費者保護、通訊隱私保障、資料保護等,仍待明確的法制規範。
3. 透過OTT服務所蒐集到的資料,均需透過明確的授權規範才得以讓OTT服務提供者有足夠的權限商業性的應用該資料。
4. 在OTT-II服務,亦即內容提供服務(Inhaltdienste)業者快速成長的背景下(例如Youtube,Netflix等),建議鬆綁歷來針對傳統影音媒體服務業者要求之嚴格廣告規範。
5. OTT-II內容平台需在公開網路上履行公平原則及反歧視原則。此原則亦應落實於終端設備使用者。
6. 支持歐盟資料保護規章的市場位置原則(Marktortprinzip)。
7. 電信法與媒體法在實體法上應更佳有所統合性。主管機關需符合憲法權限制訂法制規範,其規範亦必須符合其適當性(Zweckmäßigkeit)。
美國商務部於2023年3月21日對《晶片與科學法》(CHIPS Act)獎勵計畫中的國家安全護欄條款(guardrails)提出法規草案預告(Notice of Proposed Rulemaking, NPRM),並對外徵詢公眾意見,確保美國和盟友間的技術協調合作,促進共同國家安全利益。CHIPS作為國家安全倡議,以重建和維持美國在全球半導體供應鏈中的領導地位為目標,並確保CHIPS所補助的資金及尖端技術,不會直接或間接使中華人民共和國、俄羅斯、伊朗和北韓等特定國家受益或用於惡意行為,若CHIPS受補助者參與限制交易,政府可以收回全部資金補助。護欄條款對受補助者實施限制說明如下: 1.限制在特定國家擴張先進設施:自獲得補助起10年內,禁止對特定國家或地區的尖端和先進半導體設施為重大投資、協助擴大半導體製造能力。投資金額達100,000美元定義為重大交易,將設施生產能力提高5%為擴大半導體製造能力。 2.限制在特定國家擴建傳統設施:禁止在特定國家擴充半導體新生產線或將傳統半導體設施的生產能力擴大超過10%。若半導體設施的產出「主要服務」於該國國內市場(超過85%),則允許建造新的傳統設施,但最終產品只能在該國家或地區銷售。 3.半導體屬對國家安全至關重要項目:擬將一系列晶片歸類為涉及國家安全,並與國防部和情報局協商制訂清單管制,包括用於量子運算、輻射密集環境,和其他專業軍事能力的新進和成熟製程晶片。 4.加強美國出口管制:透過出口管制和CHIPS國家安全護欄條款,調整對儲存晶片的技術門檻限制並加強控制。對邏輯晶片應用,會設定比出口管制更加嚴格的門檻。 5.限制聯合研究和技術授權:限制與特定外國實體就引起國家安全問題的技術或產品進行聯合研究和技術授權工作。聯合研究定義為由兩人或多人進行的任何研究和開發,技術授權為向另一方提供專利、營業秘密或專屬技術的協議。
全球Open Data成功及挑戰之關鍵報告根據全球資訊網基金會(World Wide Web Foundation)及英國開放資料協會(Open Data Institute)指出,全球77個國家正進行Open Data政府開放資料政策,但實際運作上,各國政府提供公眾近用之資料集佔不到全世界政府資料的10%,呈現各國Open Data政策實行還有很大進步空間。 全球資訊網基金會與英國開放資料協會所合作的網絡平台-政府開放資料研究網絡(Open Data Research Network),針對各國政府開放資料執行狀況進行評比並提出Open Data Barometer研究報告。此報告指出,英國政府開放資料執行及成效排名第一,其次排名陸續為美國、瑞典、紐西蘭、丹麥、挪威。除此之外,專以倡導開放知識、資料、內容的國際非政府組織,開放知識基金會(Open Knowledge Foundation),則提出基於Open Data可用性及近用性進行70個國家的排名,英國仍是第一名,其次為美國、丹麥、挪威、荷蘭。從上述兩項研究報告中,英國在Open Data政策落實的成效受到高度肯定,而歐美地區仍在Open Data政策實行上領先世界其他地區的國家。 Open Data Barometer研究報告指出,目前各國政府傾向不提供具潛在爭議性的政府資料,但此類資料往往具再利用價值,例如政府財政預算及交易資料、公司登記、土地登記等相關資料。全球資訊網創始人Berners Lee表示,政府及企業不應考量提供資料集而無法收取費用,或有意掩蓋政治敏感之資料來保護政治利益,而對於公布會造就人民生活的重大進步但具爭議性之資料集,感到卻步。 目前多數國家開放資料之機器可讀性資料與資料集之免費授權(Open License)皆少於7%,報告中說明全球資料集實際可用性仍偏低,亦發現各國提供資料之收費不僅沒有效率,資料再利用授權關係也不明確,使得企業及使用者處在法律不確定之風險中。 全球面對開放資料的進展雖已有初步成效,但成功經驗仍集中在歐美國家,世界上其他國家在開放資料的可用性及近用性,仍與歐美國家有顯著差距,為能促進全球人民生活福祉及活絡商機,各國政府應更積極地執行開放資料政策,並持續改進。
美國環保署提出汽車廢氣排放新標準以加速電動汽車發展美國環保署(United States Environmental Protection Agency, EPA)為限制汽車廢氣排放污染物對環境造成的危害,根據美國《潔淨空氣法》(Clean Air Act, CAA)的授權,於2023年4月12日提出《2027年式輕型、中型商用車車型污染物排放標準》(Multi-Pollutant Emissions Standards for Model Years 2027 and Later Light-Duty and Medium-Duty Vehicles),以及《重型商用車溫室氣體排放標準-第三階段》(Greenhouse Gas Emissions Standards for Heavy-Duty Vehicles – Phase 3)這兩件汽車廢氣排放新標準,期加速電動汽車(Electric Vehicle, EVs)發展、加速潔淨交通轉型。 《2027年式輕型、中型商用車車型污染物排放標準》以及《重型商用車溫室氣體排放標準-第三階段》分別針對2027年到2032年所出廠的輕型商用車、中型商用車以及重型商用車的汽車廢氣排放標準做出更嚴格的新規範,預計將成為美國迄今為止最嚴格的汽車廢氣排放標準。目標是到2032年時,輕型商用車行駛每英里二氧化碳平均排放量下降至82公克,溫室氣體排放量相較於2026年車型年標準將減少56%;中型商用車行駛每英里二氧化碳平均排放量下降至275公克,溫室氣體排放量相較於2026年車型年標準則將減少44%。至於重型商用車,以重型拖曳機(heavy-haul tractors)為例,將從2027年車型年行駛每噸英里二氧化碳平均排放量48克,到2032年時下降至41公克左右。 根據這兩件汽車廢氣排放新標準,並未禁止化石燃料汽車的製造或銷售、亦未規範要求電動汽車的年製造量或年銷售量要達多少數量或比率,而是為汽車限定更嚴格的廢氣排放標準,因此,仍無疑地將迫使汽車製造商減少販售化石燃料汽車、加速推動電動汽車生產的腳步以符合新的排放標準規定。環保署預測汽車製造商在為符標準所採的相應作法之下將會大幅提高電動汽車在新車的銷售比率:到2032年時,電動汽車將佔輕型商用車新車銷量的 67%、中型商用車新車銷量的46%。而此累計可望到2055年時減少約100億噸的二氧化碳排放,相當於美國2022年二氧化碳總排放量的兩倍多。將有效減少有害空氣汙染、並大幅降低因空氣汙染所致的罹病風險以及過早死亡等危險。 藉由新的排放標準,將逐步淘汰化石燃料汽車的生產,加速潔淨交通轉型,有效應對氣候危機並提高全國各社區空氣品質。
IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。