品牌永續發展之關鍵-從商標維權使用角度觀之

刊登期別
第25卷,第6期,2013年06月
 

※ 品牌永續發展之關鍵-從商標維權使用角度觀之, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6340&no=57&tp=1 (最後瀏覽日:2026/03/08)
引註此篇文章
你可能還會想看
英國商業、能源及產業策略部發布智慧饋電保證公眾諮詢

  英國商業、能源和產業策略部(Business, Energy and Industrial Strategy,以下簡稱BEIS)於2019年1月提出智慧饋電保證(Smart Export Guarantee,以下簡稱SEG),於此保證下,BEIS將擬定一套不同於躉購制度之政策框架,使小型生產消費者(prosumer)所生產之綠色電力,可於此一政策框架之保障下,與售電業者議約,並將電力售予售電業者,以減輕英國政府預計於今年3月廢除躉購制度所帶來之衝擊。   SEG重要之內容包含: (1) SEG課予大型售電業(用戶數大於25萬之售電業)收購小型生產消費者所生產之綠色電力之義務。 (2) 小型生產消費者所生產之綠色電力之交易價格及相關契約內容,將交由售電業者與小型生產消費者自行協議。但SEG要求售電業業者對於綠色電力之收購價格不可低於(或等於)零。 (3) 於「負電價」期間,即便小型生產消費者將綠色電力輸入電網,售電業者也不得因此對消費者課徵任何費用。 (4) 小型生產消費者所生產之綠色電力之計算方式,必須以實際測得之產出電力為準,不得以預估之容量為準,亦即,小型生產消費者如裝設智慧電表而可記錄綠色電力生產量時,其生產之綠色電力始有被收購之可能。 (5) 小型生產消費者之再生能源發電設備,不論容量大小,皆應符合躉購制度下之再生能源發電設備之規格標準,但不得超過5MW。   此一政策立意良善,然仍有不少質疑聲音,其中的聲音不乏:(1)BEIS如何確保小型生產消費者所獲取之契約價格,可以真實反映市場之真正應有之電價?(2)SEG於今年3月躉購費率制度廢除後半年間,可能尚未會出現定案之政策框架,其間將會產生立法之真空狀態,其間要如何減緩制度改革對於產業帶來之衝擊?(3)政府所主導之小型消費者端之智慧電表之建置,於英國仍緩如牛步,而智慧電表對於小型消費者而言,如其欲主動裝設,每具將造成300歐元之額外支出,同時每年需額外支出50歐元之維修費用,此一事實對於SEG之推行無疑將造成阻礙。

加拿大政府提交予國會《人工智慧資料法案》

  加拿大政府由創新、科學和工業部長(Minister of Innovation, Science and Industry)代表,於2022年6月16日提交C-27號草案,內容包括聯邦的私部門隱私權制度更新,以及新訂的《人工智慧資料法案》(Artificial Intelligence and Data Act, 下稱AIDA)。如獲通過,AIDA將是加拿大第一部規範人工智慧系統使用的法規,其內容環繞「在加拿大制定符合國家及國際標準的人工智慧設計、開發與應用要求」及「禁止某些可能對個人或其利益造成嚴重損害的人工智慧操作行為」兩大目的。雖然AIDA的一般性規則相當簡單易懂,但唯有在正式發布這部包含絕大多數應用狀況的法規後,才能實際了解其所造成的影響。   AIDA為人工智慧監管所設立的框架包含以下六項: (1)方法 以類似於歐盟《人工智慧法案》採用的方式,建立適用於人工智慧系統具「高影響力」的應用方式的規範,關注具有較高損害與偏見風險的領域。 (2)適用範圍 AIDA將適用於在國際與省際貿易及商業行動中,設計、發展或提供人工智慧系統使用管道的私部門組織。「人工智慧系統」的定義則涵蓋任何「透過基因演算法、神經網路、機器學習或其他技術,自動或半自動處理與人類活動相關的資料,以產生結果、做出決策、建議或預測」的技術性系統。 (3)一般性義務 I 評估及緩和風險的措施 負責人工智慧系統的人員應評估它是否是一個「高影響系統」(將在後續法規中詳細定義),並制定措施以辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果。 II 監控 對該「高影響系統」負責的人員應建立準則,以監控風險緩解措施的遵守情況。 III 透明度 提供使用管道或管理「高影響系統」運作的人員應在公開網站上,以清晰的英語揭露   i 系統如何或打算如何使用。   ii 系統所生成果的類型及它所做出的決策、建議與預測。   iii 為辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果,而制定的緩解措施。   iv 法規明定應揭露的其他訊息。 IV 記錄保存 執行受規範活動的人員應遵守紀錄保存要求。 V 通知 若使用該系統將導致或可能導致重大傷害,「高影響系統」的負責人應通知部門首長。 VI 匿名資料的使用 從事法案所規定的活動及在活動過程中使用或提供匿名資料的人員,必須依據規範制定關於(a)資料被匿名化處理的方式(b)被匿名化資料的使用與管理,兩方面的措施。 (4)部長命令 部門首長可以透過命令要求(a)製作紀錄(b)從事審計或聘請一位獨立的審計師執行(c)成立一個專責執行審計程序的組織(d)成立一個在有理由相信「高影響系統」之使用可能造成急迫重大傷害風險時負責進行終止或准許的組織。 (5)行政管理 AIDA為部門首長制定一項,可指定其所管轄部門中一名高級官員為「人工智慧與資料專員」的權利,其職責在協助部門首長管理與執行AIDA。 (6)罰則 違反AIDA規範之罰則主要為按公司、個人之收入衡量的罰款。特定嚴重狀況如以非法方式取得人工智慧訓練用資料、明知或故意欺騙大眾造成嚴重或心理傷害或財產上重大損失,亦可能判處刑事監禁。

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

北歐能源科技觀點報告討論建築能源效率等為達碳中和所採措施

TOP