為推動研發制度的改革並強化研發能力及效率,日本於2018年12月14日通過法律修正案,將原《研發力強化法》(研究開発システムの改革の推進等による研究開発能力の強化及び研究開発等の効率的推進等に関する法律)更名為《科技創新成果活用法》(科学技術・イノベーション創出の活性化に関する法律),透過調整大學、國立研究開發法人(以下簡稱研發法人)的研究人員僱用制度、國家或人民安全相關研發預算的確保,以及研發法人投資科技研發成果之運用等相關制度的調整,以支持未來日本在科技創新研發能力的提升,以及研發成果的有效運用。
本次修法最大的重點,為研發法人投資研發成果運用的明文化,過去在《研發力強化法》中,僅規定研發法人得進行有助於成果運用的出資或技術協助等業務(第43條之2),但對於是否能保有因出資或技術協助所取得之收入(例如股票),則由各研發法人以其設置法另為規範;本次修正之《科技創新成果活用法》,則於第34條之5明文規定研發法人不受獨立行政法人不得持有股票的限制,可持有其運用研發成果進行技術作價投資或成立新創,所取得之股票或新股認股權,確立研發法人在支持研發成果運用上的功能與角色。
本文為「經濟部產業技術司科技專案成果」
高科技人才缺口逐年擴大,據經濟部統計,三年總計僅有一九二二位海外人才來台,政府延攬海外人才績效不及新加波、韓國。新加坡為鼓勵企業延攬國際人才,企業招聘的支出可減稅,並提供人才高薪和住房,在新加坡工作的外籍人員還可參加星政府資助的國內外培訓等獎勵措施。韓國在二○○三年更擴大辦理延攬海外科技人才,除延長外籍人士居留時間、優先核准簽證,外籍技術人員薪資所得並可五年免稅,一年延攬之科技人才高達一萬多人。除此,大陸人才濟濟,新加坡與韓國也主動延攬,新加坡對大陸人才更提供「落地永久居民批准信」。 相較於星、韓的積極態度,我國政府對延攬海外人才趨向被動,我國高科技人才需求是由產業提出,政府配合提供誘因,我國以補助外籍人員的來回程機票、保險費,及薪給差額等為主。另礙於兩岸關係,國內並不開放引進大陸人士,大陸碩士以上人才來台每年僅兩位數,主要從事研究活動相關,而非長期工作。 針對目前國內科技人才需求緊迫,立委質疑國內科技人才缺乏,政府禁止大陸人才來台,卻不限制科技人才前往大陸,形成不平衡。經濟部表示,將彙整各界意見,再思索推動政策協助;陸委會則擬在六月底前提出積極管理科技人才前往大陸的辦法。
何謂「Regtech」?有別於金融科技(Fintech)著重於運用科技手段使金融服務變得更有效率,因而形成促進金融產業發展的一種經濟產業。在美國源於對2008年金融風暴的恐懼,更傾向在金融科技提升金融服務便利與效率的同時,倡議如何使行政機關在監理過程中更能夠兼顧公平、安全及消費者保護。消費者保障與洗錢防制是行政機關進行金融監理的兩大核心目標,而金融科技服務下的客戶身分核實、信用紀錄與償債能力查核等風險控管措施,在全球發展金融科技方興未艾之際,美國則積極發展監理科技「Regtech」。意指行政機關嘗試透過科技手段有效監理業者的營運動態,如區塊鏈技術(Block-Chain)改變銀行現行運作模式,不僅降低業者營運成本外,更透過科技監理的方式協助業者即時達成法令遵循的目標,縮短法令遵循改善的過渡期間,減輕風險產生的可能。同時,也讓行政機關得以即時預防,並因應任何類似2008年金融風暴之情事的發生。
WIPO馬拉喀什條約《馬拉喀什條約》全名為《關於為盲人、視力障礙者或其他印刷品閱讀障礙者獲得已出版作品提供便利的馬拉喀什條約》(Marrakesh Treaty to Facilitate Access to Published Works for Persons Who Are Blind, Visually Impaired or Otherwise Print Disabled),2013年由世界智慧財產權組織(WIPO)通過,並於2016年9月30日生效。《馬拉喀什條約》目標是在保護智慧財產權的同時,亦能擴大視覺障礙者資訊及資源獲取的管道,允許盲人及視障者得複製已出版作品、簡化無障礙文本的印刷流通與授權,增加視障者閱讀機會。條約並要求締約方必須在國內法中明文對著作權人權利的例外與限制規定,允許被授權實體(例如為視力及閱讀障礙者服務的非營利性組織),製作圖書的無障礙格式版本,包括點字文本、大字本、數位化音訊等,並允許跨國境交換,均無須請求著作權人授權。 美國是目前擁有最多無障礙格式英文文本的國家。2019年1月28日,美國總統批准《馬拉喀什條約》後,美國成為了該條約的第50個締約國。條約在美國國內實施後,居住在條約締約國的視力障礙者將能立即獲得約550,000份無障礙文本。
歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。