配合日本經濟產業省與日本特許廳同時於今(2016)年6月8日公布以中小企業為對象所新設的海外智財訴訟費用保險制度,損害保險JAPAN日本興亞(株)於同年7月在日本開始販賣「(國內企業)智財訴訟費用保險」,涵蓋的智財保險對象包括發明專利權、實用新型專利權、設計專利權及商標權。
本次損害保險JAPAN日本興亞(株)所提出的方案為每年保費15萬日幣,每件海外智財訴訟案件補償額度上限為1千萬日幣,補償的項目為訴訟或仲裁所須支付的手續費、律師費、鑑定費、訴訟顧問費等。
根據日本特許廳的公布內容,欲加入海外智財訴訟費用保險制度的中小企業,須透過指定的機構(目前為日本商工會議所、全國商工會聯合會及全國中小企業團體中央會),以該指定機構會員的名義向配合的保險公司提出申請。前述配合的保險公司除了損害保險JAPAN日本興亞(株)之外,還有東京海上日動火災保險(株)及三井住友海上火災保險(株)。
日本特許廳透過前述指定機構,除了對加入智財訴訟費用保險的中小企業補助一半的保險費用之外,當日本中小企業在海外開展業務時,若捲入智財侵權訴訟,透過此保險制度更對已加入智財訴訟費用保險的中小企業補助一半的海外訴訟費用。日本政府新設此保險制度並輔以補助保險費的方式,鼓勵中小企業善加利用,藉此減輕中小企業的負擔、緩解中小企業拓展海外業務的擔憂,並有助於「跨太平洋夥伴關係協定(TPP)」生效後,日本企業在東南亞地區捲入智財相關訴訟的風險應對。
本文同步刊登於TIPS網站(https://www.tips.org.tw)
經濟部將在近日研商成立「輔導推動委員會」,至遲在今年底、明年初推動環境資訊揭露制度。根據經濟部初步規劃,「企業環境資訊揭露」制度,將先鎖定京都議定書溫室氣體減量規範,要求企業揭露 CO2 排放量盤查資訊及減量努力與目標,並鎖定「環境數據」、「社會責任」及「環境活動」三方面,要求企業說明因應 CO2 減量的努力情形。 「環境資訊揭露制度」將依是否上市櫃及企業規模,要求不同程度的資訊揭露。上市公司,列為「義務性揭露」,必須將「環境資訊」列入重大訊息予以公開揭露;營業額達 1 億元以上的企業及上櫃、興櫃公司,屬「自願性揭露」,以漸進的方式,在該機制實施後二年內達到「完整環境資訊揭露」;中小企業則採取「鼓勵性揭露」。 今年 5 月間,證期局為保障國內投資人,曾強制 972 家電子電機上市櫃公司,以「重大訊息」說明公司因應歐盟有毒物質禁用指令( RoHS )的情形,此一要求僅為「環保支出」之資訊,並未要求說明未來因應對策及可能支出。故經濟部希望透過「環境資訊揭露」制度的建立,讓企業從被動提報「環保支出」,提升到主動揭露「環境資訊」,並逐漸建立企業環境會計制度,因應國際環保趨勢。
歐洲藥物管理局「臨床試驗資料公開與近用政策」(草案)之定案日期將延後歐洲藥物管理局(European Medicine Agency,EMA)於今年六月下旬起至九月底止,開放接受公眾針對該局所擬「臨床試驗資料公開與近用政策」草案(draft policy on publication and access to clinical-trial data)提出回饋意見。所有公眾建言都將由EMA加以檢視,並將成為上述政策草案正式定案前之參考。原本EMA預計在2013年年底即對上述政策草案拍版定案,然而,由於歐洲藥物管理局收到超過一千則來自四面八方、不同立場之公眾回饋意見,為求妥適、深入檢視、分析這些意見,EMA原訂之定案時程將被迫遞延。新的定案時間表最慢將於十二月中上旬公布。 根據上述「臨床試驗資料公開與近用政策」草案之現行版本(亦即提供公眾評論並回饋意見之版本),原則上,EMA所持有之臨床試驗資料,將依其類型之差異而適用不同的公開或近用標準。依照EMA之分類,試驗資料將被區分為(1)「公開後不會導致個資保護疑慮之試驗資料」、(2)「如經公開,可能產生個資保護疑慮之試驗資料」、(3)「內含商業機密資訊之試驗資料」等三大類。上述第三類之「內含商業機密資訊之試驗資料」不會受到此一政策草案之影響,第二類資料將有限制的公開與提供近用,至於第一類資料,則將公開於EMA網站上供公眾下載。
優質網路社會基本法之推動芻議 歐盟提出人工智慧法律框架草案歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。 新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。 未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。