因應京都議定書,經濟部日前引用學界研究報告發現,我國若依議定書原則達成溫室氣體減量目標,總計需投入經費達五八七八億元至八七○八億元。為達成這項目標,政府採取提升能源效率的作法,比直接課徵碳稅,對國內經濟衝擊力道較小。
根據國際能源總署公布資料顯示,台灣CO2排放總量達二億一七三○萬公噸,人均排放量達九.八公噸,皆高於全球平均值,每單位CO2排放所創造的GDP為一.八九(美元/公斤CO2)也較OECD等先進國家平均值低。
經濟部內部歸納CO2減量效果不佳的原因,除政策上採非強制處理態度外,過去十年間,石化、鋼鐵等高耗能產業結構調整緩慢,加上半導體及液晶面板等大量使用全氟化物、六氟化硫的產業訊速成長,使得工業製程中排放的CO2等溫室氣體大幅成長更是主要原因。
依京都議定書條約精神及國際環保現況,我國與南韓同屬網要公約非附件一成員中的「新興工業國」,成為公約下一階段管制對象。致使抑制國內激增溫室氣體排放量已成為我國政府迫切須處理的課題。
在經濟部這份內部研究報告中,也引用臺灣大學農業經濟系教授徐世勳等學者的研究推估,如果台灣要達到京都議定書的要求,將CO2排放量控制在一九九○年水準,則減量成本將達新台幣五八七八億元至八七○八億元。
而學界的這項研究也針對開徵碳稅稅率不同對台灣經濟影響進行評估,推估當對每公噸CO2排放課徵六○○元碳稅時,對經濟成長衝擊為負○.六%,調高至七五○元時,所造成的衝擊則更達負○.七一%。
本文為「經濟部產業技術司科技專案成果」
英國政府由數位文化媒體與體育大臣(Secretary of State for Digital, Culture, Media and Sport)與商業能源與工業策略大臣(Secretary of State for Business, Energy and Industrial Strategy)代表,於2022年7月18日提交予國會一份「人工智慧監管規範政策報告」(AI Regulation Policy Paper)。內容除定義「人工智慧」(Artificial Intelligence)外,並說明未來政府建立監管框架的方針與內涵。 在定義方面,英國政府認為人工智慧依據具體領域、部門之技術跟案例有不同特徵。但在監管層面上,人工智慧產物則主要包含以下兩大「關鍵特徵」,造成現有法規可能不完全適用情形: (1)具有「適應性」,擅於以人類難以辨識的意圖或邏輯學習並歸納反饋,因此應對其學習方式與內容進行剖析,避免安全與隱私問題。 (2)具有「自主性」,擅於自動化複雜的認知任務,在動態的狀況下持續判斷並決策,因此應對其決策的原理原則進行剖析,避免風險控制與責任分配問題。 在新監管框架的方針方面,英國政府期望所提出的監管框架依循下列方針: (1)針對技術應用的具體情況設計,允許監管機構根據其特定領域或部門制定和發展更詳細的人工智慧定義,藉以在維持監管目標確定與規範連貫性的同時,仍然能實現靈活性。 (2)主要針對具有真實、可識別與不可接受的風險水準的人工智慧應用進行規範,以避免範圍過大扼殺創新。 (3)制定具有連貫性的跨領域、跨部門原則,確保人工智慧生態系統簡單、清晰、可預測且穩定。 (4)要求監管機構考量更寬鬆的選擇,以指導和產業自願性措施為主。 在跨領域、跨部門原則方面,英國政府則建議所有針對人工智慧的監管遵循六個總體性原則,以保障規範連貫性與精簡程度。這六個原則是基於經濟合作暨發展組織(OECD)的相關原則,並證明了英國對此些原則的承諾: 1.確保人工智慧技術是以安全的方式使用 2.確保人工智慧是技術上安全的並按設計運行 3.確保人工智慧具有適當的透明性與可解釋性 4.闡述何謂公平及其實施內涵並將對公平的考量寫入人工智慧系統 5.規範人工智慧治理中法律主體的責任 6.釋明救濟途徑 除了「人工智慧監管政策說明」外,英國政府也發布了「人工智慧行動計畫」(AI Action Plan)文件,彙整了為推動英國「國家人工智慧策略」(National AI Strategy)而施行的相關行動。前述計畫中亦指出,今年底英國政府將發布人工智慧治理白皮書並辦理相關公聽會。
加拿大政府擬將安樂死合法化加拿大聯邦政府於2016年4月14日向國會提交「醫助善終」法案,即C-14法案(Bill C-14),以修正加拿大的刑法(Criminal Code)相關規定;另外,亦會一併修正年金法(Pension Act)、矯正和有條件釋放法(Corrections and Conditional Release Act)、加拿大部隊成員和退伍軍人重建和賠償法(Canadian Forces Members and Veterans Re-establishment and Compensation Act)相關名詞之解釋。 該法案通過後,醫生、護士、藥師及其他協助執行任務之人,將可對符合資格之病人,以醫療方式協助其結束生命,而免於背負刑法加工自殺罪之責任。 可以使用醫療方式結束生命(Medical Assistance in Dying)之人,必須符合以下列出的所有條件,缺一不可: (1)須為加拿大籍;或是在加拿大停留至少一段時間,可使用加拿大的醫療健康服務者。 (2)年齡至少18歲以上,且可對其健康自主作出決定。 (3)患有極為嚴重且不可治癒之重大醫療情況。 (4)在沒有外界壓力之情形下,自願性的要求以醫療方式結束其自身之生命者。 (5)在接受醫療方式結束生命前,須簽署知情同意書(Informed Consent)。 加拿大議會認同那些處於極為嚴重、難以忍受且無法治癒疾病之族群,有向專業醫療人員尋求結束自己生命的權利;但這需要非常健全的法令體系,以避免任何可能的錯誤或濫用,因為生命一旦消逝就再也無法回復。對於處於弱勢之族群,例如生命品質不佳者、老年人、重病或殘障者,亦應尊重其生命之固有價值,保護他們免於被引誘結束自己的生命是非常重要的。 這部法案是一個衡平的法案,同時保護弱勢族群之生命價值,也保護了特殊族群尋求醫療方式結束自己生命的權利。新法案需待國會投票審議通過後,才能生效。
澳洲修正線上安全法,限制16歲以下之人使用社群媒體平臺.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 澳洲國會於2024年11月29日通過線上安全法(Online Safety Act)修正案,防止16歲以下人擁有社群媒體平臺帳號。澳洲早在2021年就制定線上安全法,將未成年人之線上安全列為規範重點,惟立法當時並未設有社群媒體平臺使用者之最低年齡限制。近年來因網路性剝削、假訊息與仇恨言論問題越發嚴重,促使澳洲國會兩院迅速通過本次修法。 新修線上安全法於第63C條增定「具年齡限制之社群媒體平臺」(Age-Restricted Social Media Platform, ARSMP)之定義,係指符合下列條件之電子服務:(1)服務之唯一或主要目的在促進2人以上終端使用者之線上社交互動,但不包商務互動(business interaction)、(2)允許終端使用者能與其他終端使用者連結或互動、(3)允許終端使用者能發布訊息及(4)其他法律規定之條件;或其他經本法授權通訊部長透過法規所明定之電子服務。目前符合此定義之ARSMP,如Snapchat、TikTok、Facebook、Instagram、X等。 ARSMP必須採取合理步驟(reasonable steps)避免16歲以下之人擁有前述社群媒體平臺帳號,違規者將被處以3萬個民事罰款單位(約美金990萬元)。新法授權電子安全專員(eSaftyCommissioner)後續訂定ARSMP合理步驟指引,或由通訊部長會商電子安全專員以法規方式訂定之。此外,新法也針對ARSMP為確認使用者年齡蒐集個人資料一事制定相關規範,包括符合目的特定原則、經當事人知情同意、目的消失後銷毀個人資料等。 為給予社群媒體平臺服務提供者調整系統之緩衝期間,新法預計於國會通過後1年內生效。
日本發布《資料品質管理指引》,強調歷程存證與溯源,建構可信任AI透明度2025年12月,日本人工智慧安全研究所(AI Safety Institute,下稱AISI)與日本獨立行政法人情報處理推進機構(Information-technology Promotion Agency Japan,下稱IPA)共同發布《資料品質管理指引》(Data Quality Management Guidebook)。此指引旨於協助組織落實資料品質管理,以最大化資料與AI的價值。指引指出AI加劇了「垃圾進,垃圾出(Garbage in, Garbage out)」的難題,資料品質將直接影響AI的產出。因此,為確保AI服務的準確性、可靠性與安全性,《資料品質管理指引》將AI所涉及的資料,以資料生命週期分為8個階段,並特別強調透過資料溯源,方能建立透明且可檢核的資料軌跡。 1.資料規劃階段:組織高層應界定資料蒐集與利用之目的,並具體說明組織之AI資料生命週期之各階段管理機制。 2.資料獲取階段:此步驟涉及生成、蒐集及從外部系統或實體取得資料,應優先從可靠的來源獲取AI模型的訓練資料,並明確記錄後設資料(Metadata)。後設資料指紀錄原始資料及資料歷程之相關資訊,包含資料的創建、轉檔(transformation)、傳輸及使用情況。因此,需要記錄資料的創建者、修改者或使用者,以及前述操作情況發生的時間點與操作方式。透過強化來源透明度,確保訓練資料進入AI系統時,即具備可驗證的信任基礎。 3.資料準備階段:重點在於AI標註(Labeling)品質管理,標註若不一致,將影響AI模型的準確性。此階段需執行資料清理,即刪除重複的資料、修正錯誤的資料內容,並持續補充後設資料。此外,可添加浮水印(Watermarking)以確保資料真實性與保護智慧財產權。 4.資料處理階段(Data Processing):建立即時監控及異常通報機制,以解決先前階段未發現的資料不一致、錯漏等資料品質問題。 5.AI系統建置與運作階段:導入RAG(檢索增強生成)技術,檢索更多具參考性的資料來源,以提升AI系統之可靠性,並應從AI的訓練資料中排除可能涉及個人資料或機密資訊外洩的內容。 6. AI產出之評估階段(Evaluation of Output):為確保產出內容準確,建議使用政府公開資料等具權威性資料來源(Authoritative Source of Truth, ASOT)作為評估資料集,搭配時間戳記用以查核參考資料的時效性(Currentness),避免AI採用過時的資料。 7.AI產出結果之交付階段(Deliver the Result):向使用者提供機器可讀的格式與後設資料,以便使用者透過後設資料檢查AI產出結果之來源依據,增進透明度與使用者信任。 8.停止使用階段(Decommissioning):當資料過時,應明確標示停止使用,若採取刪除,應留存刪除紀錄,確保留存完整的資料生命週期紀錄。 日本《資料品質管理指引》強調,完整的資料生命週期管理、強化溯源為AI安全與創新的基礎,有助組織確認內容準確性、決策歷程透明,方能最大化AI所帶來的價值。而我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,同樣強調從源頭開始保護資料,歷程存證與溯源為關鍵,有助於組織把控資料品質、放大AI價值。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)