員工分紅列費用之會計處理 金管會擬自民國97年起適用

   新修正商業會計法第 64 條規定,商業對業主分配之盈餘,不得作為費用或損失。但具負債性質之特別股,其股利應認列為費用。本條但書即是企業對於員工分紅應與以費用化之法源。配合此一新修正規定,金管會前已邀集業界及產業公會、四大會計師事務所與相關政府單位等,針對員工分紅費用化相關問題共同討論以研擬員工分紅費用化之相關會計處理及配套措施。 金管會及有關單位研討後決定, 在會計處理方面,企業應於期中報表依章程所訂之比率,預估員工分紅及董監酬勞金額入帳。期後董事會決議發放金額有重大變動時,該變動應調整當年度(原認列員工紅利之年度)之費用。至於次年度股東會決議若有變動,則依會計估計變動處理,列為次年度損益。 至於員工分紅配發股數之計算基礎以公平價值評價,上市上櫃公司應以股東會開會前一日之公平市價(考慮除權及除息之影響)計算股票紅利股數;興櫃公司及未上市上櫃之公開發行公司則應以股東會前最近期經會計師查核簽證之財務報告淨值計算股票紅利股數。企業發行員工認股權憑證及買回庫藏股轉讓予員工,應以公平價值法認列為費用。 以上決議將自 民國九十七年一月一日 起的財務報表開始適用。


  由於員工分紅費用化,對一向以股票分紅作為獎勵員工的科技產業,可能造成不小的衝擊,因此,金管會也提出「員工認股權憑證制度」及「庫藏股票制度」的配套措施,並將修正「發行人募集與發行有價證券處理準則」與「上市上櫃公司買回本公司股份辦法」。金管會表示,有關本案規劃措施及實施日期,將由經濟部彙整各部會意見,提報行政院,相關措施將配合實施日程發布。

相關連結
※ 員工分紅列費用之會計處理 金管會擬自民國97年起適用, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=513&no=55&tp=1 (最後瀏覽日:2026/04/04)
引註此篇文章
你可能還會想看
印度政府公告個人資料保護法草案

  2018年7月27日印度電子及資訊科技部(Ministry of Electronics and Information Technology, MeitY)公告個人資料保護法草案(Protection of Personal Data Bill),若施行將成為印度首部個人資料保護專法。   其立法背景主要可追溯2017年8月24日印度最高法院之判決,由於印度政府立法規範名為Aadhaar之全國性身分辨識系統,能夠依法強制蒐集國民之指紋及虹膜等生物辨識,國民在進行退稅、社會補助、使用福利措施等行為時都必須提供其個人生物辨識資料,因此遭到人權團體控訴侵害隱私權。最高法院最後以隱私權為印度憲法第21條「個人享有決定生活與自由權利」之保護內涵,進而認為國民有資料自主權,能決定個人資料應如何被蒐集、處理與利用而不被他人任意侵害,因此認定Aadhaar專法與相關法律違憲,政府應有義務提出個人資料專法以保護國民之個人資料。此判決結果迫使印度政府成立由前最高法院BN Srikrishna法官所領導之專家委員會,研擬個人資料保護法草案。   草案全文共112條,分為15章節。主要重點架構說明如下: 設立個資保護專責機構(Data Protection Authority of India, DPAI):規範於草案第49至68條,隸屬於中央政府並由16名委員所組成之委員會性質,具有獨立調查權以及行政檢查權力。 對於敏感個人資料(Sensitive personal data)[1]之特別保護:草案在第4章與第5章兩章節,規範個人與兒童之敏感個人資料保護。其中草案第18條規定蒐集、處理與利用敏感個人資料前,必須獲得資料主體者(Data principal)之明確同意(Explicit consent)。而明確同意是指,取得資料主體者同意前,應具體且明確告知使用其敏感個人資料之目的、範圍、操作與處理方式,以及可能對資料主體者產生之影響。 明確資料主體者之權利:規範於草案第24至28條,原則上資料主體者擁有確認與近用權(Right to confirmation and access)、更正權(Right to correction)、資料可攜權(Right to data portability)及被遺忘權(Right to be forgotten)等權利。 導入隱私保護設計(Privacy by design)概念:規範於草案第29條,資料保有者(Data fiduciary)應採取措施,確保處理個人資料所用之技術符合商業認可或認證標準,從蒐集到刪除資料過程皆應透明並保護隱私,同時所有組織管理、業務執行與設備技術等設計皆是可預測,以避免對資料主體者造成損害等。 指派(Appoint)資料保護專員(Data protection officer):散見於草案第36條等,處理個人資料為主之機構、組織皆須指派資料保護專員,負責進行資料保護影響評估(Data Protection Impact Assessment, DPIA),洩漏通知以及監控資料處理等作業。 資料保存之限制(Data storage limitation):規範於草案第10條與第40條等,資料保有者只能在合理期間內保存個人資料,同時應確保個人資料只能保存於本國內,即資料在地化限制。 違反草案規定處高額罰金與刑罰:規範於草案第69條以下,資料保有者若違反相關規定,依情節會處以5億至15億盧比(INR)或是上一年度全球營業總額2%-4%罰金以及依據相關刑事法處罰。 [1]對於敏感個人資料之定義,草案第3-35條規定,包含財務資料、密碼、身分證號碼、性生活、性取向、生物辨識資料、遺傳資料、跨性別身分(transgender status)、雙性人身分(intersex status)、種族、宗教或政治信仰,以及與資料主體者現在、過去或未來相連結之身體或精神健康狀態的健康資料(health data)。

歐盟執委會提出醫藥品管理整體配套方案,保障歐盟境內大眾用藥安全

  為確保歐洲民眾於健康醫療方面之利益,歐洲製藥工業協會聯合會(European Federal Pharnaceutical Industrial Association;簡稱EFPIA)於2009年2月17日,向歐洲議會(European Parliament)提出建議,並敦促其應儘速通過歐盟執委會(European Commission)於去年年底所提出一項關於醫藥品安全、創新與易近用性之議案。而一位業界代表Günter Verheugen於當(17)日會面後指出:「此次會面,主要是希望能就新近執委會所提交之醫藥品管理整體配套方案(Pharmaceutical Package),進行初步意見之交換與討論」。   由於保障歐盟境內民眾之健康安全,實乃歐盟決策者(Decision-makers)所應掮負之重要責任,故EFPIA總幹事Brian Ager於此次會面交流之前,亦曾高聲向歐洲議會與各會員國家呼籲,應優先將病患安全(Patient Safety)議題納入考量,並採取果斷之行動;同時,其也指明,歐洲醫藥各界為尋求各種可能落實之方法,先前早已經歷過各個階段,並遲延了決策做成之時機;故,此次會面,除要為執委會提案之審查,奠定啟動之基外,亦盼能再次集聚並挹注歐洲醫藥各界之能量,於保護歐洲人民健康安全相關之行動當中。   關於歐盟執委會於去(2008)年底所提出之議案,由於其中有多項內容對歐洲醫藥各界之影響實廣且深;因此,該項提案目前業已廣泛地受到EFPIA與業者之重視。此外,就此項醫藥品管理整體配套方案中擬採行之具體立法規範措施,實包含如後3個面向:首先,是欲透過規範擬提昇藥物警戒(Pharmacovigilance)方法之現代化;其次,強化管制規範以減少假藥滲入歐洲整體醫藥品供應鏈之機會;最後,則是要要提供高品質之健康與醫藥品相關資訊給有需要之病患或大眾近用(Access)等。   由此可知,未來歐盟整體醫藥品管理立法方向,將分由3個不同之角度出發;並同時朝「改善歐洲大眾用藥安全」之目標前進;不過,在進一步進行條文化之前,前述由執委會所提出之醫藥品管理整體配套方案,將會先交由歐洲議會與歐盟理事會官員共同進行初步之討論。

何謂「國立研究開發法人」?

  國立研究開發法人為日本法制度下三種獨立行政法人類型的其中之一(其餘兩種為中期目標管理法人、與行政執行法人),任務乃是獨立於國家,發揮一定程度之自主性與自律性,從事在國民生活或社會經濟安定性等公益目的上所必要,但不須由國家為主體來執行的科學技術之實驗、研究與開發,並且這些科技研發業務,係基於具備一定中長期政策目標之計畫而進行,目的在於最大限度地確保得以提升國家科技水準、同時攸關經濟健全發展及其他公益的研發成果,並被期待產出得參與國際競爭的世界頂尖水準之新創科技,作為國家戰略的一環,同時專注於基礎科學與國家核心技術的研發。但在國立研究開發法人中,其所屬職員的身分並非公務員。   現在日本共有將近30個獨立研究開發法人,如日本醫療研究開發機構、森林研究‧整備機構‧新能源‧產業技術總合開發機構(NEDO)、國立環境研究所等。

歐盟提出人工智慧法律框架草案

  歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。   新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。   未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。

TOP