能源清醒!歐洲競爭電信協會主張應重新討論網路建設的付出與碳排放影響的歸責

  「能源清醒」(Energy Sobriety)作為一種概念逐漸被普及到政策和法令之中。目的在於使各種使用者對於自身行為所產生的碳排放有所警醒、並且就其行為所產生的碳排放負起責任,進而在產品、設備的選擇和使用習慣上重新進行考慮。藉由選擇減少消費、或是更改消費模式來更好的保護地球資源、減少碳排放。能源清醒的概念和能源效率的概念不同,他透過社會文化的改變來達到能源節省的目的、而不是仰賴技術的革新。

  基於此一概念,歐洲競爭電信協會(European Competitive Telecommunications Association)於2022年9月發表對於網路基礎建設投資的聲明,希望能就對於網路建設的付出是否公平展開討論。

  該協會表示,雖然其身為電子通信業者的成員們在歐洲綠色政綱(European Green Deal)上有所投入、致力於減少環境足跡,但是網路流量的穩定增加卻限制了電子通信業者對於減少溫室氣體排放的努力。而這種現象在行動網路(mobile network)的使用上特別明顯。因為將高品質(如4K、8K或HDR)的影像傳輸到行動裝置或小尺寸螢幕設備上對於用戶體驗的提升並沒有實際上的幫助,但是卻會使得網路頻寬(bandwidth)被大量消耗以及大量的溫室氣體在過程中被排放。這使得營運商將網路規模擴大(更多的核心網路和RAN設備、更多的設備和地點),因此有了更高的耗能,對於環境的影響也更加劇烈。對此,協會提議透過監管方式來改善這種情形,認為應要求內容供應商應採取非歧視性的、與內容無關的方式使影音解析度適應螢幕尺寸的解決方案,從而減少不必要的網路流量和浪費,並且給予其適度的獎勵措施。

  該協會認為,任何符合能源清醒的模式都應該受到數位生態圈的集體鼓勵。而其中的每個參與者也應該要注意和承認自己的行為所產生的影響,並作為一個能源使用者和造成碳排放的實際個體負起責任。對此,歐洲競爭電信協會已經準備好就此提議進行討論與辯論。

相關連結
※ 能源清醒!歐洲競爭電信協會主張應重新討論網路建設的付出與碳排放影響的歸責, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=8906&no=55&tp=1 (最後瀏覽日:2026/01/26)
引註此篇文章
你可能還會想看
全美各州醫療委員會聯合會發布人工智慧(AI)治理指引,並要求醫師為AI之利用結果負最終責任

全美各州醫療委員會聯合會(The Federation of State Medical Boards, FSMB)於2024年4月發布「引導人工智慧以負責任與符合倫理方式融入臨床實務」(Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice)指引,明確概述醫師於利用AI協助提供照護時可採取之步驟,以履行其倫理與專業職責,期能藉此降低對患者造成傷害之風險;本指引之特色在於,其要求醫師為AI之利用結果負最終之責任。 FSMB 向各州醫療委員會與其他利害關係人所提供之原則與建議如下,以支持對包含AI之臨床照護進行負責任與符合倫理之監管: (1)透明度與揭露(Transparency and Disclosure): 應要求維持於醫療照護領域使用AI之透明度;各州醫療委員會應制定明確之指導方針,向患者揭露AI之使用情況,其有助於患者與醫師之理解,但不會造成不必要之行政負擔;FSMB 應制定文件,詳細說明最常用之AI工具之功能與局限性,以協助醫療委員會發揮監管者之角色,並應制定常見問題與最佳實務文件,作為提供照護時利用AI方面關於透明度之資源。 (2)教育與理解(Education and Understanding): FSMB及其於醫學教育界之合作夥伴,應為醫師、醫療委員會與患者,確認有關醫療照護中AI之結構化教育資源,該等資源應包括協助瞭解AI如何運作、其優點、潛在風險以及對患者照護之影響。 (3)負責任之使用與問責(Responsible Use and Accountability): 開發人員應協助醫師瞭解何時、以及如何於患者之照護中利用AI工具;選擇AI工具支援臨床決策之醫院系統、保險公司或其他機構應向醫師提供有關AI工具之教育、存取各工具之性能報告,並應設計一個定期檢視工具功效的流程;AI工具應以得使各州醫療委員會能稽核與理解之方式設計,以便適當評估依賴工具輸出結果之醫師是否偏離照護標準(standard of care);FSMB 應支持各州醫療委員會針對臨床醫師如何負責任、可問責地使用AI之解釋。 (4)公平性與近用(Equity and Access): 應努力確保所有患者皆能公平地近用AI帶來之好處;FSMB與各州醫療委員會致力於以下原則:醫療人員所提供之照護是公平的、且不受基於種族、民族或其他形式歧視之偏見影響;FSMB應與其他利害關係人一起理解並解決演算法偏差問題。 (5)隱私與資料安全(Privacy and Data Security): AI工具之開發者必須實施嚴格之保護措施,以保護AI開發與評估時所利用之患者資料,通常情況下應告知患者資料如何被利用,且FSMB應與行業利害相關人一起制定AI系統使用與散布患者資料之政策,包括針對AI開發或評估中使用之患者資料之最低資料保護措施。 (6)監督與監管(Oversight and Regulation): 各州醫療委員會必須保留對於提供醫療服務時,不當應用AI工具之醫生進行紀律處分之權力,其包括問責議題之考慮,特別是當AI系統變得更加自主時;各州醫療委員會應審查其管轄範圍內如何對「醫療行為」(practice of medicine)進行法律定義,以確保對提供醫療照護、人力或其他方面進行持續之監管監督。 (7)法律法規之持續審查與調整(Continual Review and Adaptation of Law and Regulations): 各州醫療委員會應在FSMB之支持下,隨著AI之不斷發展,持續檢視與更新與AI相關之指引與法規;政策制定者應考慮AI對基本法律原則的影響,例如醫療行為之定義以及AI對企業醫學實務之影響;FSMB 應建立一個專門團隊,持續檢視與調整AI指引與法規。 本指引指出,AI工具通常無能力取代醫師之專業判斷、道德責任或對州醫療委員會之責任,醫療行為中之關鍵職業責任始終為確保診斷、臨床決策與建議不存在偏差。與用於診斷或治療疾病之任何其他工具或鑑別方法相同,醫療專業人員有責任確保基於證據結論之準確性與真實性,因此於將AI系統用於患者照護前,醫師應以合理努力識別與解決偏差(如虛假或不準確之資訊等)。

Facebook因掃描用戶訊息而面臨訴訟

  2013年,Facebook用戶Matthew Campbell指控Facebook違反聯邦電子通訊隱私法及加州法律,並提出集體訴訟,要求Facebook必須支付每位受侵害的用戶最高一萬美元的賠償。原因是Facebook掃瞄用戶之私人對話內容中的網站連結,並計入網站的按「讚」總數,再將這些「讚」彙整入用戶的個人檔案後對用戶進行行為分析,最後針對該用戶的行為模式發送客製化的廣告, 造成用戶的困擾。   對此,Facebook辯稱其掃描用戶的訊息是很普遍的商業行為,因此屬於聯邦電子通訊隱私法例外條款的範疇,而且Facebook在2012年即已停止傳送客製化廣告,故Facebook要求撤銷此訴訟。   然而,2014年12月23日,美國加州奧克蘭地方法官 Phyllis Hamilton認為,雖然Facebook已經在2012年10月停止傳送客製化廣告,但Facebook同時並承認仍會持續分析用戶之訊息(理由是為了防止電腦病毒以及垃圾郵件),而且Facebook不願意提供任何有關目標式廣告手法的細節,使法院無法判斷這是否為普遍的商業行為而屬於聯邦電子通訊隱私法例外條款的範疇,因此,法院裁定駁回Facebook的撤銷申請,本案將繼續進行審理程序。

因應ChatGPT人工智慧趨勢,為企業提出營業秘密管理建議

2022年11月美國OpenAI公司推出人工智慧大型語言模型ChatGPT,提供全球使用者透過輸入文本方式向ChatGPT提出問題,雖營業秘密不需絕對保密,惟是否會「因向ChatGPT揭露營業秘密而使營業秘密喪失了秘密性」? 依OpenAI公司「非API訪問數據政策」規定,ChatGPT透過OpenAI公司的AI訓練人員審核「使用者上傳至ChatGPT的資訊」,提供ChatGPT反饋,強化ChatGPT進行有效的學習,讓ChatGPT模仿人類語言回覆使用者所提出的問題。在AI訓練人員未將「使用者上傳至ChatGPT的資訊」交由ChatGPT訓練、學習前(上次訓練是在2021年9月),此聊天內容不會成為ChatGPT給其他使用者的回答,此時資訊對於公眾仍具秘密性。依據ChatGPT的使用條款第5(a)條之單方保密義務規定:「OpenAI公司、其子公司及其他第三方公司可能賦予使用者『機密資訊的接觸權限』,但使用者僅限於使用條款所允許的服務中使用該些機密資訊,不得向第三方揭露該機密資訊,且使用者至少應採取合理的注意保護該機密資訊。所謂機密資訊係指OpenAI公司、其子公司及其他第三方公司(1)指定的非公開資訊,或(2)合理情況下,被認定為機密資訊者,比如軟體、規格及其他非公開商業資訊。」。即ChatGPT對於使用者輸入的聊天內容不負保密義務。 公司將程式碼、會議紀錄等敏感資訊與ChatGPT共享,不必然屬於「因揭露營業秘密而使營業秘密喪失秘密性」,考量訓練數據量大,秘密性取決於周遭環境與揭露性質,例如: 1.揭露的資訊類型,比如飲料配方可能會比客戶名單更容易取得。 2.揭露的環境,比如競爭對手、大眾是否能提出具體問題,以致能取得他人聊天內容的營業秘密。 為在ChatGPT的趨勢下確保營業秘密的秘密性,建議企業採取的管理策略如下: 1.透過「資訊分類」以識別可共享的資訊。 2.審核涉及敏感資訊的協議、公司政策及供應商契約。 3.採取實體、數位的資訊保密措施,並留意尊重員工隱私,比如限制接觸某些網站或應用程式,應留意員工的手機是否能繞過此限制。 4.建立公司保密文化,如透過公司培訓、新人入職教育訓練,定期提醒其應負擔的保密義務。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。

歐盟執委會公布「行動健康醫療(mHealth)綠皮書徵詢意見書」

  為強化推動歐盟行動健康醫療之發展,歐盟執委會於2014年4月10日以綠皮書之形式,向大眾(包括產業、國家與地方機關、專業醫療機構、研究機構、非政府組織、病患協會等)提出mHealth行動健康醫療徵詢意見,在2015年1月12日時公布「行動健康醫療(mHealth)綠皮書徵詢意見書」(摘要版)(Summary report on the public consultation on the green paper on mobile health)。   此份徵詢意見書有十個主題,包含:資料保護、法制架構、病人安全與資訊透明、行動健康在醫療體系中之定位及平等接取、互操作性(interoperability)、給付模式(reimbursement models)責任、研發與創新 、國際合作和網路業者參與市場。從報告顯示,大多數的人認為資料保護是最重要的,特別是建立用戶信任的保護隱私與安全之工具(例如資料加密(data encryption)與認證機制(authentication mechanisms)),並且認為強化資料保護法制。   再者,有將近一半的被徵詢人要求透過認證方案或資格標籤等方法做更進一步的病人保護與資料透明。第三,行動醫療主要是透過網路進行,然而有網路業者表示,因為目前仍缺少明確的管制架構、互操作性以及共通品質標準,所以對業者而言是難以進入市場的。第四,也有許多被徵詢人認為行動醫療的性能和安全要求,應透過立法、指導原則或自我管制(self-regulation)管理。另外也有提出應確保行動醫療與電子健康病歷(Electronic Health Records , EHRs)之互操作性,以便於照護延續性與用於研究目的上。   經過此次徵詢,歐盟執委會對於推動行動健康醫療發展,規劃將在2015年間將會與相關業者討論政策措施,包括立法、自我或共同管制(self- or co-regulation)、政策指導原則等。

TOP