管制全球溫室氣體排放以遏制全球暖化的京都議定書在二月十六日生效,環保署將著手推動溫室氣體管制法的法制作業工作,目前正研擬溫室氣體管制法,規劃將由中央主管機關擬訂「全國溫室氣體防制基本方案」,同時確立政府各部門、企業及國民溫室氣體減量合作及分工;並規範推動國家溫室氣體盤查、登錄及排放清冊建置;授權訂定排放管制、財稅誘因及排放交易制度;推動溫室氣體減量技術研發等;同時推動教育宣導、推廣及鼓勵使用高能源效率產品與節約能源生活方式。
環保署署長張祖恩強調,雖然現有京都議定書條文中沒有貿易制裁或違約罰款的條款,但在合作共生的理念下,我國沒有理由當一個國際溫室氣體減量列車的搭便車乘客(free rider),應在公約精神下,積極推動節約能源、再生能源開發、提昇能源效率等工作。
環保署已於2004年度起首度整合產業、運輸及住商部門領域,辦理溫室氣體盤查管理工作,建立盤查規範登錄平台,積極推動國際標準組織ISO14064驗證系統,並遴選電力、石化、鋼鐵、造紙、水泥、光電半導體等業別12家示範廠商,推動6種溫室氣體全面盤查及減量工作,其中排放大戶台灣電力股份有限公司、中國鋼鐵股份有限公司、中國石油股份有限公司均已參與環保署試行盤查減量計畫。對於溫室氣體排放持續成長的住商部門,環保署協調相關部會規劃成立技術服務團,輔導既有建築物推動節約能源及提昇能源效率工作;對於運輸部門,除持續推動大眾運輸系統外,環保署將與相關部會加強推動油電混合小客車之引進。
本文為「經濟部產業技術司科技專案成果」
為釐清自駕車事故發生時,該如何適用日本《汽車賠償法》相關規定,國土交通省於2016年11月設置「自動駕駛損害賠償責任研究會」,檢討︰(1)自動駕駛是否適用《汽車賠償法》上運用供用者概念?(2)汽車製造商在自動駕駛事故損害中應負何種責任?(3)因資料謬誤、通訊不良、被駭等原因導致事故發生時應如何處理?(4)利用自動駕駛系統時發生之自損事故,是否屬於《汽車賠償法》保護範圍等議題,並於2018年3月公布研究報告。針對上述各點,研究會認為目前仍宜維持現行法上「運行供用者」責任,由具有支配行駛地位及行駛利益者負損害賠償責任,故自駕車製造商或因系統被駭導致失去以及支配行駛之地位及行駛利益者,不負運行供用者責任。此外,研究報告亦指出,從《汽車賠償法》立法意旨在於保護和汽車行駛無關之被害者,以及迅速使被害者得到救濟觀之,自動駕駛系統下之自損事故,應仍為《汽車賠償法》保護範圍所及。
何謂「LAB- FAB - APP- Investing in the European future we want」?歐盟執委會研究創新總署之高級專家小組(High Level Group)2017年7月3日提交名為《研究、生產、應用—投資於我們所期待的歐洲未來》(LAB- FAB - APP- Investing in the European future we want)報告,呼籲歐盟及成員國大幅增加對研發創新的投入。該報告認為過去20年,工業化國家2/3的經濟增長歸功於研發創新。歐洲必須妥善利用大量知識,將創新潛力轉化為現實的經濟增長,從而促進歐洲繁榮,解決社會挑戰。該報告提出11項建議:(1)將歐盟及成員國的預算優先考慮投入研發創新,將下一個歐盟研發創新計畫的預算提高一倍;(2)建立可創造未來市場的歐盟創新政策;(3)投入未來教育培訓,投資創新人才;(4)編制能夠發揮更大影響力的歐盟研發創新計畫,堅持目標、完善評估系統以增加計畫靈活度;(5)採取任務導向、焦點式措施應對全球挑戰;(6)使歐盟資金分配更加合理,實現與歐盟結構性基金的協同效應;(7)進一步簡化計畫管理模式,更注重效果而不是過程;(8)激勵公眾參與創新;(9)更好地促進歐盟及成員國的研發創新投資合作;(10)使國際合作成為歐盟研發創新的特徵,通過共同資助等方式,開放歐盟研發創新計畫;(11)將歐盟研發創新品牌化,擴大研究創新成果及作用。
人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。
從管理模式談智慧財產管理的重要性