因應京都議定書,經濟部日前引用學界研究報告發現,我國若依議定書原則達成溫室氣體減量目標,總計需投入經費達五八七八億元至八七○八億元。為達成這項目標,政府採取提升能源效率的作法,比直接課徵碳稅,對國內經濟衝擊力道較小。 根據國際能源總署公布資料顯示,台灣CO2排放總量達二億一七三○萬公噸,人均排放量達九.八公噸,皆高於全球平均值,每單位CO2排放所創造的GDP為一.八九(美元/公斤CO2)也較OECD等先進國家平均值低。 經濟部內部歸納CO2減量效果不佳的原因,除政策上採非強制處理態度外,過去十年間,石化、鋼鐵等高耗能產業結構調整緩慢,加上半導體及液晶面板等大量使用全氟化物、六氟化硫的產業訊速成長,使得工業製程中排放的CO2等溫室氣體大幅成長更是主要原因。 依京都議定書條約精神及國際環保現況,我國與南韓同屬網要公約非附件一成員中的「新興工業國」,成為公約下一階段管制對象。致使抑制國內激增溫室氣體排放量已成為我國政府迫切須處理的課題。 在經濟部這份內部研究報告中,也引用臺灣大學農業經濟系教授徐世勳等學者的研究推估,如果台灣要達到京都議定書的要求,將CO2排放量控制在一九九○年水準,則減量成本將達新台幣五八七八億元至八七○八億元。 而學界的這項研究也針對開徵碳稅稅率不同對台灣經濟影響進行評估,推估當對每公噸CO2排放課徵六○○元碳稅時,對經濟成長衝擊為負○.六%,調高至七五○元時,所造成的衝擊則更達負○.七一%。
歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。
網路中立管轄權屬誰?FCC尋求法院支持美國聯邦上訴法院哥倫比亞巡迴分院(US Court of Appeals for the District of Columbia Circuit)於2010年1月12日,針對網路中立議題召開口頭辯論聽證會。該案上訴人為美國目前電視及網路服務市佔率最高的Comcast所提出,系爭案由為聯邦通信委員會(Federal Communication Commission, FCC)於2008年禁止網路服務提供者(Internet Services Provider, ISP)限制其用戶使用BitTorrent。 BitTorrent為一種常見的點對點傳輸程式,多用以線上檔案分享。該公司認為,FCC並沒有足夠的權力要求其不分用戶等級,全部提供毫無限制的服務;而FCC卻從保護消費者及網路應開放自由進入的角度辯述,從而使FCC是否有權力規範網路中立(Internet Neutrality)之議題邁入更激烈的討論。 所謂「網路中立」,意指網路服務提供者不得因傳送或下載資訊種類差異而提供不平等的流量服務。早在2005年,FCC即有一套管制網路服務提供者侵害網路中立的審查標準,但該標準並非為一體適用的法律位階,而FCC是否得依職權制定網路中立的規範,一直以來亦有所爭議,是故此次其與Comcast對簿公堂,FCC最終目的即是在尋求法院之見解,希冀獲得聯邦法院的支持而使其立法行動名正言順。 對此,聯邦最高法院原則上認同FCC以往對於「資訊服務」的見解,亦即,由於傳統電信服務往往與重大基礎建設相關,尤其是網路開放接取的相關規定,FCC應提高其管制密度;而屬低度管制的資訊服務(Lightly Regulated Information Service)則不應與電信服務有相同的對待;是故Comcast據認在網路中立尚未有明確權責規劃前,FCC實無權插手管控Comcast所提供之資訊服務。此外,該公司亦提出,類似BitTorrent的點對點傳輸應用程式往往用於大量檔案的交換,無限制地提供所有用戶使用,不但造成整體網路服務效能下降,由於傳輸的內容往往為影音檔案,亦間接侵害了Comcast本身的電視業務。 對此,雙方目前仍各執一詞,由於案件目前尚在上訴法院審理,FCC此次投石問路的策略是否成功還在未定之天,但可以確定的是,不論法院的見解為何,網路中立的爭議恐將持續發酵,並對後續網路服務提供之發展產生一定影響。
OECD發布《抓取資料以訓練AI所衍生的智慧財產問題》報告經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2025年2月9日發布《抓取資料以訓練AI所衍生的智慧財產問題》報告(Intellectual property issues in artificial intelligence trained on scraped data),探討AI訓練過程中「資料抓取」對智慧財產之影響,並提出政策建議,協助決策者保障智財權的同時推動AI創新。 資料抓取是獲取AI大型語言模型訓練資料之主要方法,OECD將其定義為「透過自動化方式,從第三方網站、資料庫或社群媒體平臺提取資訊」。而未經同意或未支付相應報酬的抓取行為,可能侵害作品之創作者與權利人包括著作權、資料庫權(database rights)等智慧財產及相關權利。對此,報告分析各國政策法律的因應措施,提出四項關鍵政策建議: 一、 訂定自願性「資料抓取行為準則」 訂定適用於AI生態系的準則,明確AI資料彙整者(aggregators)與使用者的角色,統一術語以確保共識。此外,準則可建立監督機制(如登記制度),提供透明度與文件管理建議,並納入標準契約條款。 二、 提供標準化技術工具 標準化技術工具可保護智財權及協助權利人管理,包括存取控制、自動化契約監控及直接支付授權金機制,同時簡化企業合規流程。 三、 使用標準化契約條款 由利害關係人協作訂定,可解決資料抓取的法律與營運問題,並可依非營利研究或商業應用等情境調整。 四、 提升法律意識與教育 應提升對資料抓取及其法律影響的認知,協助權利人理解保護機制,教育AI系統使用者負責任地運用資料,並確保生態系內各方明確瞭解自身角色與責任。