能源清醒!歐洲競爭電信協會主張應重新討論網路建設的付出與碳排放影響的歸責

  「能源清醒」(Energy Sobriety)作為一種概念逐漸被普及到政策和法令之中。目的在於使各種使用者對於自身行為所產生的碳排放有所警醒、並且就其行為所產生的碳排放負起責任,進而在產品、設備的選擇和使用習慣上重新進行考慮。藉由選擇減少消費、或是更改消費模式來更好的保護地球資源、減少碳排放。能源清醒的概念和能源效率的概念不同,他透過社會文化的改變來達到能源節省的目的、而不是仰賴技術的革新。

  基於此一概念,歐洲競爭電信協會(European Competitive Telecommunications Association)於2022年9月發表對於網路基礎建設投資的聲明,希望能就對於網路建設的付出是否公平展開討論。

  該協會表示,雖然其身為電子通信業者的成員們在歐洲綠色政綱(European Green Deal)上有所投入、致力於減少環境足跡,但是網路流量的穩定增加卻限制了電子通信業者對於減少溫室氣體排放的努力。而這種現象在行動網路(mobile network)的使用上特別明顯。因為將高品質(如4K、8K或HDR)的影像傳輸到行動裝置或小尺寸螢幕設備上對於用戶體驗的提升並沒有實際上的幫助,但是卻會使得網路頻寬(bandwidth)被大量消耗以及大量的溫室氣體在過程中被排放。這使得營運商將網路規模擴大(更多的核心網路和RAN設備、更多的設備和地點),因此有了更高的耗能,對於環境的影響也更加劇烈。對此,協會提議透過監管方式來改善這種情形,認為應要求內容供應商應採取非歧視性的、與內容無關的方式使影音解析度適應螢幕尺寸的解決方案,從而減少不必要的網路流量和浪費,並且給予其適度的獎勵措施。

  該協會認為,任何符合能源清醒的模式都應該受到數位生態圈的集體鼓勵。而其中的每個參與者也應該要注意和承認自己的行為所產生的影響,並作為一個能源使用者和造成碳排放的實際個體負起責任。對此,歐洲競爭電信協會已經準備好就此提議進行討論與辯論。

相關連結
※ 能源清醒!歐洲競爭電信協會主張應重新討論網路建設的付出與碳排放影響的歸責, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8906&tp=1 (最後瀏覽日:2025/11/05)
引註此篇文章
你可能還會想看
虛擬人生,真實訴訟! 美商藝電EA控告社交遊戲公司Zynga侵犯著作權;Zynga控告EA不正競爭。

  美商藝電EA(Electronic Arts)於今年八月初在舊金山地方法院控告以社群遊戲著稱的Zynga於六月在Facebook所推出的遊戲《The Ville》抄襲EA於2011年八月推出的「模擬市民(The Sims Social)」,侵犯EA的著作權。EA表示,The Ville中的設計選項、動畫、畫面處理、角色的活動及動作都原封不動地抄襲自EA的「模擬市民(The Sims Social)」。EA聲稱,Zynga抄襲了「模擬市民(The Sims Social)」原始並特殊的表達要素(original and distinctive expressive elements),明顯違反美國的著作權法。EA並表示,Zynga任用了三位自EA離職的員工而獲取了「模擬市民(The Sims Social)」的商業機密。Zynga則反譏EA欠缺對於著作權原則的了解,並表示《The Ville》是Zynga小鎮遊戲(Ville-game)系列的延續,過去曾推出的系列遊戲包含《YoVille》、《CityVille》以及《Castile Ville》,EA的指控毫無根據。     雖然《The Ville》與「模擬市民(The Sims Social)」兩者在遊戲的角色設定以及角色圖樣跟背景有諸多相似,但是Zynga在細節上做了許多與EA不同的設定。本案如果有效成立,將對於遊戲產業造成顯著影響。     美國法下,遊戲產業的智慧財產權議題中,一個重要的法律關鍵在於「思想/表達二分法(idea/expression dichotomy) ,「思想(idea)」並非著作權的保護客體,僅想法的表達方式(expression)是著作權的保護客體。舉例而言,你可以再寫一本有關於魔法學校的書,但是你不可以把書中的主要角色命名為哈利波特。      1994年時,快打旋風二(Street Fighter II)的發行商嘉富康(Capcom)控告DECO(Data East Corporation)的格鬥列傳(Fighter’s History)抄襲,但是法院認為嘉富康遊戲的角色是植基於既存典型角色以及武術原則,DECO的相似性並不侵犯快打旋風的著作權。     九月中,Zynga對EA提出反訴,控訴EA採取不正競爭(anticompetitive)以及不法(unlawfully)商業行為,違反反托拉斯法(anti-trust law)。Zynga指出,EA試圖以法律訴訟以及恐嚇離職員工的方式,非法阻止Zynga雇用EA的離職員工。Zynga指稱EA威脅Zynga將提出訴訟,要求Zynga與之簽訂「不任用協議(no-hire agreement)」,依照該協議EA將不對Zynga提出關於雇用員工的告訴以做為簽約對價。但是EA在今年八月對Zynga的著作權告訴已經打破該協議。事實上依照加州法,禁止離職員工去競爭公司任職是違法的。矽谷這類因為員工到競爭對手任職而引發的法律案件還有蘋果(Apple)以及谷歌(Google)一案,這兩家公司過去曾因為簽訂不挖角協議而遭美國司法部起訴,後來與美國司法部達成和解。EA則表示離職員工抄襲其它EA設計師,Zynga此舉意圖轉移社會及法庭注意力。除了否認EA抄襲的指控,Zynga更表示,沒有任何根據可以說明EA是虛擬人生遊戲的創始者,Zynga的《YoVille》推出時間甚至早於EA的「模擬市民(The Sims Social)」三年。     本案因為矽谷遊戲產業人才的流動性而增加了案件的複雜性,跳脫一般的著作權侵權訴訟,既然離職後到競爭對手任職是可被允許的,那麼產出類似的遊戲產品就更加難以避免,不論是基於自身的創意或者模仿過去共事同仁的創意,「學習」以及「抄襲」之間的界線總是難以劃分,如果本案成立著作權侵權,矽谷遊戲人才在開發設計遊戲時必然需要更加小心謹慎。 圖片來源: Tech Crunch

科研資源整合之跨國合作趨勢研析與比較

美國加州「Asilomar人工智慧原則決議」

  美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下: (1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。 (2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。 (3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。 (4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。 (5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。 (6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。 (7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。 (8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。 (9)人工智慧所產生之責任,應由設計者以及建造者負擔。 (10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。 (11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。 (12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。 (13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。 (14)人工智慧之技術應盡力滿足越多人之利益。 (15)人工智慧之經濟利益,應為整體人類所合理共享。 (16)人類對於人工智慧之內在目標應享有最終設定權限。 (17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。 (18)人工智慧所產生之自動化武器之軍備競賽應被禁止。 (19)政策上對於人工智慧外來之發展程度,不應預設立場。 (20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。 (21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。 (22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。 (23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。

英國與美國為人工智慧安全共同開發簽署合作備忘錄

英國技術大臣(U.K. Secretary of State for Science)蜜雪兒·多尼蘭(Michelle Donelan)和美國商務部長(U.S. Secretary of Commerce)吉娜·雷蒙多(Gina Raimondo)於2024年4月1日在華盛頓特區簽署一份合作備忘錄(MOU),雙方將共同開發先進人工智慧(frontier AI)模型及測試,成為首批就測試和評估人工智慧模型風險等進行正式合作之國家。 此備忘錄之簽署,是為履行2023年11月在英國的布萊切利公園(Bletchley Park)所舉行的首屆人工智慧安全峰會(AI Safety Summit)上之承諾,諸如先進AI的急速進步及濫用風險、開發者應負責任地測試和評估應採取之適當措施、重視國際合作和資訊共享之必要性等等,以此為基礎羅列出兩國政府將如何在人工智慧安全方面匯集技術知識、資訊和人才,並開展以下幾項聯合活動: 1.制定模型評估的共用框架(model evaluations),包括基礎方法(underpinning methodologies)、基礎設施(infrastructures)和流程(processes)。 2.對可公開近用模型執行至少一次聯合測試演習(joint testing exercise)。 3.在人工智慧安全技術研究方面進行合作,以推進先進人工智慧模型之國際科學知識,並促進人工智慧安全和技術政策的一致性。 4.讓英、美兩國安全研究所(AI Safety Institute)間的人員互相交流利用其團體知識。 5.在其活動範圍內,依據國家法律、法規和契約規定來相互共享資訊。 換言之,兩國的機構將共同制定人工智慧安全測試之國際標準,以及適用於先進人工智慧模型設計、開發、部署、使用之其他標準。確立一套通用人工智慧安全測試方法,並向其他合作夥伴分享該能力,以確保能夠有效應對這些風險。就如英國技術大臣蜜雪兒·多尼蘭強調的,確保人工智慧的安全發展是全球性問題,只有通過共同努力,我們才能面對技術所帶來的風險,並利用這項技術幫助人類過上更好的生活。

TOP