根據日本特許廳調查,國際(如韓國,泰國)在處理智財爭議時,往往會傾向採取非訟的方式解決智財爭議,例如透過智財局進行智財調解。日本也預計在2019年10月1日起於東京及大阪兩地的地方法院導入新的智財調解制度,用以快速解決智財(例如專利權,著作權等)相關爭議。
普遍而言智財爭議往往會耗費企業或當事人相當長的時間,且爭議的智財標的在訴訟期間也無法被使用,故日本政府計劃推行新的智財調解制度。新的智財調解制度,除了能降低訴訟成本外,日本政府更迫切想解決的問題是,不希望爭議的智財標的影響企業經營。
在日本智財訴訟是公開,法官在聽過兩造說法後會由法官做單方面的判決,且根據日本最高法院的資料顯示,智財訴訟平均需花費十二點九個月的時間才能結案。有的從訴訟提起到一審宣判就需花費一年又八個月,再到最高法院判決確定還需花費一年又二兩個月。
而日本新推行的智財調解制度計畫將透過視訊的方式,讓當事人與法官進行非公開的對話,並儘量促成兩造達成合意,調解過程最短僅需花費約三個月的時間就能有結果,若調解沒有共識,當事人一樣能進行智財訴訟。智財調解制度除了能有效減少爭議時間外,費用上智財調解申請費也遠低於智財訴訟的申請費。
「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
歐盟議會於2018年7月5日針對新版著作權指令案進行投票,其中278票贊成、318票反對、31票棄權,否決新版著作權指令案。 指令案被否決之主要原因在於其中具爭議性之Article 11、13。Article 11規定,網路資訊整合平台業者(aggregation service)未來在引用他人所發佈之新聞資料或以超連結,連結至該新聞網頁時,非營利之平台業者需取得出版者之同意,營利之平台業者則需支付使用費,外界將此稱為「超連結稅」(link tax);而Article 13則規定,網路資訊整合平台業者需確保上傳之內容未侵害他人之著作權,否則當上傳資訊有侵害他人著作權之情形,平台業者亦應負相關責任。 非營利之網路資訊整合平台業龍頭之一〈維基百科(Wikipedia)〉認為該指令案之通過恐將對其造成影響,為表達抗議於2018年7月4日關閉維基百科西班牙、義大利及波蘭版,而其共同創辦人之一Jimmy Wales亦於個人Twitter上發文表達反對意見。惟另一方面,歐洲電視台、出版業者及Paul McCartney(披頭四成員之一)等藝術創作者則認為,新版著作權指令案將有助於著作權之保護,而表達支持之立場。 新版著作權指令案將於修正後,於同年9月份再付議會表決。因指令案通過與否,將對相關平台業者造成實質上之影響,後續動態值得繼續追蹤及注意。
美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。 依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。 依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。 此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。 最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。
日本修正《氫能基本戰略》以實現氫能社會日本於2023年6月6日召開有關「再生能源、氫能等相關」內閣會議,時隔6年修正《氫能基本戰略》(水素基本戦略),其主要以「水電解裝置」、「燃料電池」等9種技術作為戰略領域,預計15年間透過官民投資15兆日元支援氫能相關企業,希冀盡速實現氫能社會。 日本早於2017年即提出氫能基本戰略,由於氫氣在使用過程中不會產生溫室氣體或其他污染物質,被認為是可以取代傳統化石燃料的潔淨能源,欲以官民共同合作,無論在日常生活、生產製造等活動下,都能透過氫能發電方式,達成氫能社會,故推出降低氫能成本、導入氫能用量的政策,並以2030年為目標,將氫能的用量設定為30萬噸、同時將氫能成本降為30日元/Nm3(以往價格為100日元/Nm3),使其成本與汽油和液化天然氣成本相當。為配合2021年《綠色成長戰略》,日本再次擴充目標,透過活用綠色創新基金,集中支援日本企業之水電解裝置和其他科技裝置,預計在2030年的氫能最大供給量達每年300萬噸、2050年可達2000萬噸。 然而隨著各國紛紛提出脫碳政策和投資計畫,再加上俄烏戰爭之影響,全球能源供需結構發生巨大變化,例如:德國成立氫氣專案(H2 Global Foundation)投入9億歐元,以市場拍賣及政府補貼成本的方式推動氫能、美國則以《降低通膨法》(The Inflation Reduction Act),針對氫能給予稅率上優惠措施等,在氫能領域進行大量投資,故為因應國際競爭,日本重新再審視國內氫能發展,並修正《氫能基本戰略》,除提出「氫能產業戰略」及「氫能安全保障戰略」外,本次主要修正之重要措施摘要如下: 1.維持2030年、2050年氫能最大供給量之設定,但新增2040年時提出氫能的最大供給量目標為1200萬噸。 2.由於水電解裝置在製造綠氫時不可缺,爰設定相關企業於2030年前導入15GW左右的水電解裝置,同時確立日本將以氫能製造為基礎之政策。 3.鑒於氫能科技尚不純熟、氫能價格前景不確定性高,在氫能供應鏈的建構上有較大風險,故透過保險制度分擔風險,以提高經營者、金融機構投資氫能之意願。 4.藉由氫能結合渦輪、運輸(汽車、船舶)、煉鐵化學等其他領域,期以氫氣發電渦輪、FC卡車(使用氫氣燃料電池Fuel Cell之卡車)、氫還原製鐵為中心,强化國際競爭力,創造氫能需求。 5.預計10年間,以產業規模需要在都市圈建設3處「大規模」氫能供給基礎設施;另依產業特性預計於具相當需求之地區,建設5處「中等規模」基礎設施。
美國OMB發布人工智慧應用監管指南備忘錄草案美國行政管理預算局(United States Office of Management and Budget, OMB)於2020年1月發布「人工智慧應用監管指南(Guidance for Regulation of Artificial Intelligence Applications)」備忘錄草案。該備忘錄草案係基於維護美國人工智慧(AI)領導地位之目的,而依據美國總統川普(Donald John Trump)於2019年2月簽署之「維持美國人工智慧領導地位(Maintaining American Leadership in Artificial Intelligence)─行政命令13859號」,並在啟動美國人工智慧計畫後180天內,經OMB偕同科技政策辦公室(Office of Science and Technology Policy, OSTP)、美國國內政策委員會(United States Domestic Policy Council)與美國國家經濟委員會(National Economic Council)與其他相關機構進行協商,最後再由OMB發布人工智慧應用監管指南備忘錄草案,以徵詢公眾意見。 該備忘錄草案不僅是為了規範新型態AI應用技術,更希望相關的聯邦機構,在制定AI應用產業授權技術、監管與非監管方法上,能採取彈性的制定方向,以避免過度嚴苛的規定,反而阻礙AI應用的創新與科技發展,繼而保護公民自由、隱私權、基本權與自治權等價值。同時,為兼顧AI創新與政策之平衡,應以十大管理原則為規範制定之依據,十大管理原則分別為: 培養AI公眾信任(Public Trust in AI); 公眾參與(Public Participation); 科學研究倫理與資訊品質(Scientific Integrity and Information Quality); AI風險評估與管理(Risk Assessment and Management); 獲益與成本原則(Benefits and Costs); 彈性原則(Flexibility); 公平與反歧視(Fairness and Non-Discrimination); AI應用之揭露與透明化(Disclosure and Transparency); AI系統防護與措施安全性(Safety and Security); 機構間之相互協調(Interagency Coordination)。 此外,為減少AI應用之阻礙,機構制定AI規則時,應採取降低AI技術障礙的方法,例如透過聯邦資料與模型方法來發展AI研發(Federal Data and Models for AI R&D)、公眾溝通(Communication to the Public)、自發性共識標準(Voluntary Consensus Standards)之制定及符合性評鑑(Conformity Assessment)活動,或國際監管合作(International Regulatory Cooperation)等,以創造一個接納並利於AI運作的環境。