因應京都議定書,經濟部日前引用學界研究報告發現,我國若依議定書原則達成溫室氣體減量目標,總計需投入經費達五八七八億元至八七○八億元。為達成這項目標,政府採取提升能源效率的作法,比直接課徵碳稅,對國內經濟衝擊力道較小。
根據國際能源總署公布資料顯示,台灣CO2排放總量達二億一七三○萬公噸,人均排放量達九.八公噸,皆高於全球平均值,每單位CO2排放所創造的GDP為一.八九(美元/公斤CO2)也較OECD等先進國家平均值低。
經濟部內部歸納CO2減量效果不佳的原因,除政策上採非強制處理態度外,過去十年間,石化、鋼鐵等高耗能產業結構調整緩慢,加上半導體及液晶面板等大量使用全氟化物、六氟化硫的產業訊速成長,使得工業製程中排放的CO2等溫室氣體大幅成長更是主要原因。
依京都議定書條約精神及國際環保現況,我國與南韓同屬網要公約非附件一成員中的「新興工業國」,成為公約下一階段管制對象。致使抑制國內激增溫室氣體排放量已成為我國政府迫切須處理的課題。
在經濟部這份內部研究報告中,也引用臺灣大學農業經濟系教授徐世勳等學者的研究推估,如果台灣要達到京都議定書的要求,將CO2排放量控制在一九九○年水準,則減量成本將達新台幣五八七八億元至八七○八億元。
而學界的這項研究也針對開徵碳稅稅率不同對台灣經濟影響進行評估,推估當對每公噸CO2排放課徵六○○元碳稅時,對經濟成長衝擊為負○.六%,調高至七五○元時,所造成的衝擊則更達負○.七一%。
本文為「經濟部產業技術司科技專案成果」
根據美國公共電視台在2016年1月6日的新聞,指出生物支付將可能成為新興支付工具。生物支付之定義為利用生物辨識(biometric)技術驗證個人生物特徵,諸如:指紋、虹膜等進行支付。採用生物支付技術,未來將無須使用信用卡或行動裝置,僅需要個人生物特徵之辨識即可完成交易。此轉變將使未來交易更加快速、便利,但同時,生物支付的安全性卻也不無疑義。 即便生物辨識屬於高層級的資訊安全保護機制,但水能載舟,亦能覆舟。生物辨識利用生物不可變之特性進行身分識別,涉及高度個人隱私,為妥善保護個人資訊安全,需訂立生物辨識相關規範加以管制,否則將衍生許多法律問題。 例如:在2015年6月,美國線上出版商Shutterfly公司被控訴違法蒐集個人資料。原告稱其並非Shutterfly公司之註冊使用者,也從未同意其生物辨識資訊被該公司蒐集,但其面紋(Face print)卻被上傳至該公司網站,並標註姓名,儲存在自動針對相片標記臉部辨識系統之資料庫。 依據BIPA針對生物辨識定義及蒐集規範: 1.第10條: 生物辨識之態樣,包含視網膜、虹膜掃描、指紋或是手部、臉部外觀之掃描,但不包括簽名、照片、用於科學檢測之人體樣本、頭髮顏色等。 2.第15條(a): 規定公司蒐集個人生物特徵資訊應有相關規範供公眾查閱,並應提供生物辨識資訊之保管及銷毀日期及相關資訊。 3.第15條(b)(1): 蒐集生物辨識資訊應告知當事人。 Shutterfly公司提出要求法院不受理之抗辯,主張BIPA規定之臉部外觀,其文意解釋應為物理上個人親自接受掃描所得之資訊,並非原告所主張以照片辨識之臉部外觀,但法院認為Shutterfly之主張並不合理,因此同意受理此案。 觀察該案可發現,儘管生物辨識提高資訊安全之保護,但相關法規範解釋仍待實務完備。另一方面,生物特徵資訊極易被他人蒐集,因此,如何建置蒐集個人辨識資訊及完善相關措施,也是推行生物支付措施所需突破的關口。
因應國際立法趨勢 專利法相關制度擬大幅度鬆綁智慧局現正積極研修專利法,其中最為重要者包括: • 配合國際公共衛生議題,放寬強制授權條件; • 修正研究實驗免責相關規定; • 配合司法院智慧財產專業法院之成立,研擬設置爭議審議組; • 新型專利整體制度改革,考量原則開放「同一人」對於同一技術可「同時」申請,以利企業作專利佈局; • 大幅修正新式樣專利制度,開放多種新式樣保護標的,擴大新式樣專利保護範圍,以期帶動台灣文化創意及工業設計產業發展。 由於專利法這次修正為通盤修正,故智慧局刻正召開多場公聽會,參考各界意見及參酌國際立法趨勢為整體思考,以期建立更完善之專利制度。其中,針對新型專利制度之整體政策、專利年費逾越繳納期限產生失權後之救濟制度、以及以外文本提出申請取得申請日等三項議題,智財局已於 7 月 18 日 召開公聽會,聽取各界意見,尋求共識。 在新型專利整體制度改革部分,智慧局擬考量原則開放「同一人」對於同一技術可「同時」申請,以提供更多權益保障,以利企業作專利佈局。因此,企業一方面可取新型形式審查之便利領證,一方面也可取發明專利實體審查權利較穩定,而且二者前後接續。 有關專利權人逾越年費繳納期限產生專利權消滅後之救濟制度,依現行 專利法第82條 規定,發明專利第二年以後之年費,未於應繳納專利年費之期間內繳費者,得於期滿六個月內補繳之,但其年費應按規定之年費加倍繳納。根據前開規定,專利權人超過年費繳納期限,得於到期後六個月內加倍補繳年費,但專利權人超過一日與超過五個月,同樣都須加倍補繳,二者顯然有所失衡,因此,這次修法預備採取比率加繳制度,也就是說,依照超過的期限多寡,比率補繳,並非一率加倍補繳。 另外,超過六個月補繳期後,依照現行 專利法第66條第3款 規定,專利權當然消滅,只有在專利權人超過期限未繳年費是因具有不可抗力事由時,才能依 專利法第17條第2項 申請回復原狀,但是,一些專利權人超過繳費期限,並非因為具有不可抗力事由,而是具有正當理由,若因此而喪失專利權,顯非專利法保護專利權人之意旨,故此次修正亦放寬申請回復原狀之事由,以保障專利權人之權益。 針對外文本提出申請取得申請日部分,現行 專利法第25條第4項 規定,專利申請案允許申請人先以外文說明書提出申請,嗣後再補中文說明書,而專利法對於外文說明書之語文種類並無任何限制,以致外文本種類繁多,是否與中文譯本相符,認定上有困難。智慧局這次修正,研擬作適當限制,但是與會人員有不同意見,智慧局將再通盤考量。
歐盟個資保護委員會對英國個資傳輸適足性認定之意見英國自2020年1月31日正式脫離歐盟後,即成為歐盟跨境傳輸的「第三國」。能否持續和歐盟國家進行個資傳輸,就須視歐盟對英國跨境資料保護方式和《一般資料保護規範》(General Data Protection Regulation,GDPR)有無認定雙方具有本質上相同的保護程度,又稱為「適足性」(adequacy)的認定。目前,歐盟給予英國跨境傳輸過渡期到2021年7月,在此之後若希望持續不受限制的交流,就須經歐盟執委會(European Commission, EC)通過適足性認定後才得以進行。 2021年2月19日,歐盟執委會提出草案,認為英國的個資保護標準與歐盟的「GDPR」、「執法機關資料保護指令」(Law Enforcement Directive,LED)有適足性之適用。又在4月14日,歐盟個資保護委員會(European Data Protection Board, EDPB)針對歐盟執委會於2月19日所做的認定草案提出兩項意見: 一、肯認英國現行國內資料保護的核心架構中有關個資保護、處理及控制者的要件及處理方式和GDPR的保護程度並駕其驅。另,肯定英國「2018年資料保護法」(Data Protection Act 2018)中有關GDPR及LED的適用及對「英國資訊委員辦公室」(Information Commissioner’s Office, ICO)所賦予的權利及義務。 但同時,EDPB也向歐盟執委會提出以下幾點注意事項: 英國政府若發展獨立的個資保護政策,將可能與歐盟的保護架構分歧,造成個資保護程度降低。 「2018年資料保護法」中的「移民豁免」政策,讓資料控制者在處理移民相關資料時有廣泛的例外,得免於遵循GDPR之義務。 從英國將歐盟成員的資料傳給「第三國」時,該「第三國」本身需要具有基本上等同於GDPR的資料保護程度,才得允許傳輸。 針對英國政府出於國家安全目的,將個人資料傳輸到英國境內,而有義務免除或特殊情狀時,歐盟執委會應進一步了解或審核。 二、 認為英國法律框架中的核心要件實質上與LED的基礎原則具有高度一致性。因此建議歐盟執委會引入四年的日落條款(four-year sunset clause)方式,並密切觀察英國資料保護的發展,在必要時得以要求修改或終止LED適足性的決定。 針對以上問題,歐盟執委會希望能在6月底前廣納各國意見並做出決定。屆時,若通過適足性認定,其效期將延續4年,之後再進行適足性評估。並可能在英國開始制定相關的適足性及資料保護架構時,歐盟執委會得將其納入定期審查的項目中,以確保歐盟的個資跨境傳輸進入英國後,仍受適當的保護。
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。