哥本哈根會議集思討論國際綠色技術移轉機制議題,實質突破性進展待後續再議

  去(2009)年12月19日在丹麥哥本哈根落幕的聯合國氣候變遷綱要公約(UNFCCC)第15次締約國會議(COP15)結論中,其中之一是各國達成將建立一套「技術機制」(Technology Mechanism),協助開發中國家獲得減少溫室氣體排放所需的綠色技術,促進綠色技術的發展及移轉,以作為實現減量及調適的支援措施,而這項機制將依據各國的環境條件及需求優先性分別進行。此外,會議並通過採納印度提出建構「氣候創新中心」網絡(Network of Climate Innovation Centers)之提議;不過整體而言,與其他氣候變遷議題一樣,建構國際綠色技術移轉機制之進展並不如預期。

 

  國際間有關促進綠色技術移轉之討論,在UNFCCC第4條即有明文規定,不過這項議題直到2007年召開的COP13會議所宣布的「峇里島行動計畫」(Bali Action Plan)中,與減緩、調適、資金投資並列為後京都機制的四大主軸後,才獲得廣泛重視。而2008年召開的COP14會議中更進一步提出了「波茲南技術移轉策略方案」(Poznan Strategic Programme on Technology Transfer),由已開發國家透過適當的智慧財產權管理,提供開發中國家必要的綠色技術,以達成減緩的目標,當中包括技術需求及評估、技術資訊、有利環境、能力建構及技術移轉機制等具體作法。

 

  在促進綠色技術擴散的大方向下,各國及國際組織也在今年陸續提出不同的倡議,並聚焦到智慧財產權上。諸如作為開發中國家代表的中國、印度及巴西即紛紛呼籲應仿效在緊急情況下對部分藥品專利之強制授權作法,使開發中國家得以免費使用對環境有益技術之專利;歐洲專利局、聯合國環境規劃署以及貿易暨永續發展國際中心三個組織也展開如何使專利制度能更加促進綠色技術之創新及擴散的研究工作。不過由於已開發國家擔心如此喪失龐大的商業利益,並減損創新研發的誘因,因此多採取保留態度。兩大陣營分歧的立場在哥本哈根會議中未能突破,而僅停留在過往共識的重申,也使得國際綠色技術移轉議題將留待2010年6月的波昂會議以及12月的墨西哥會議中持續再議。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 哥本哈根會議集思討論國際綠色技術移轉機制議題,實質突破性進展待後續再議, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=3222&no=67&tp=1 (最後瀏覽日:2026/04/27)
引註此篇文章
你可能還會想看
世界衛生組織公布「人工智慧於健康領域之倫理與治理」指引

  世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則: 一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。 二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。 三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。 四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。 五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。 六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。

再工業化!?美國推動先進製造知基礎法制政策研析

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

馬來西亞個人資料保護法於2013年11月15日正式施行

  馬來西亞於2010年訂定個人資料保護法(Personal Data Protection Act, PDPA),惟當時並未立即施行,至2013年11月15日,才連同相關規則、命令正式施行。   任何因商業往來而取得個人資料之人,在馬來西亞境內以自動化工具處理(或授權、控制個人資料之處理)時,都必須遵循該法及其相關法令的規定。否則,將有可能面臨50萬元令吉(相當於新台幣450萬元)罰鍰或三年以下有期徒刑。   除此之外,2013年個人資料保護命令(Personal Data Protection Order 2013)更規定,通訊業、金融業、保險業、健康、遊樂業、運輸業、教育、直銷業、服務業、不動產業、公益事業等11種行業別的資料利用者,必須在2014年02月15日前向個資保護委員會註冊並取得執照。   針對施行前蒐集的個人資料,該法賦予三個月的寬限期,然而施行後所蒐集者立即適用,其中包括以下規定: 1.告知當事人蒐集目的、有權請求存取及更正,並提供聯絡窗口、電話、傳真號碼或e-mail等相關資訊,於21日內回覆當事人請求; 2.除履行契約所必要等情形外,處理個人資料前應取得當事人同意,且該同意若係透過既有表單取得,外觀上應與其他事項有所區別; 3.在蒐集目的內利用個人資料,將個人資料提供予第三人時,應定期維護該名單; 4.實施並確保從業人員遵循安全政策,該政策須符合個資保護委員會所定安全標準; 5.確保個人資料之完整性、正確性及最新性; 6.制訂保存期間政策; 7.除接受國事先經過核准、取得當事人同意或已盡相當能事確保個人資料不會以違反個資法規定之方式處理外,原則上禁止國際傳輸等。   馬來西亞由於該法的施行,早先於新加坡成為東協十國當中,第一個全面實施相關法規的國家,通訊暨多媒體部部長Ahmad Shabery Cheek表示,此舉將有助於馬來西亞躋身已開發國家之林。

TOP