日本《科技創新成果活用法》

  為推動研發制度的改革並強化研發能力及效率,日本於2018年12月14日通過法律修正案,將原《研發力強化法》(研究開発システムの改革の推進等による研究開発能力の強化及び研究開発等の効率的推進等に関する法律)更名為《科技創新成果活用法》(科学技術・イノベーション創出の活性化に関する法律),透過調整大學、國立研究開發法人(以下簡稱研發法人)的研究人員僱用制度、國家或人民安全相關研發預算的確保,以及研發法人投資科技研發成果之運用等相關制度的調整,以支持未來日本在科技創新研發能力的提升,以及研發成果的有效運用。

  本次修法最大的重點,為研發法人投資研發成果運用的明文化,過去在《研發力強化法》中,僅規定研發法人得進行有助於成果運用的出資或技術協助等業務(第43條之2),但對於是否能保有因出資或技術協助所取得之收入(例如股票),則由各研發法人以其設置法另為規範;本次修正之《科技創新成果活用法》,則於第34條之5明文規定研發法人不受獨立行政法人不得持有股票的限制,可持有其運用研發成果進行技術作價投資或成立新創,所取得之股票或新股認股權,確立研發法人在支持研發成果運用上的功能與角色。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 日本《科技創新成果活用法》, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8267&no=67&tp=1 (最後瀏覽日:2026/02/24)
引註此篇文章
你可能還會想看
英國BSI發布自駕車發展與評估控制系統指引

  英國標準協會(British Standards Institution, BSI)於2020年4月30日發布「PAS 1880:2020:自駕車控制系統開發及評估指引(PAS 1880:2020: Guidelines for developing and assessing control systems for automated vehicles)」,該文件提供一系列的準則,提供自駕車研發者於發展控制系統時可安全有效的進行布建;本文件所涵蓋之自駕車類型主要為於(研發者)所設計及規劃之特定運行範圍內(operational design domain,以下簡稱ODD)下不需人工介入即可運送旅客與貨物者。   指引中就自駕車之控制系統設計進行分類,並提出研發者應針對不同目的與重點進行說明以及相關應遵循事項,其中應包含以下項目: 任務:自駕車之任務應被定義。 ODD:自駕車之ODD應被定義並且應可涵蓋其所有執行任務之面向。 感知運作:於任務中感知運作系統執行時,自駕車應可判斷其是否遵循ODD之範圍,並可提供相關資料予決策系統。 決策:當決策系統執行時,自駕車應可實施所有為達成任務所決策規劃之活動。 控制運作:當控制運作系統執行時,自駕車應可於正常情況下控制其動作以完成任務,並可於無法執行正確行動時採取合適之措施。 監控運作:當監控運作系統執行時,於整個任務過程中,自駕車應可監控其自身之運作。 人身安全、系統安全與有效(Safe, secure and effective):自駕車應可於所有時刻皆保持運作之人身安全、系統安全性與有效性。

延長專利保護對產業研發創新的效應思考-兼談專利法修正草案第54條

歐盟批准Google併購DoubleClick公司

  Google 在2007年4月買下DoubleClick之後,競標落敗的微軟連同其他Google對手,控告Google和DoubleClick的結合,恐怕有壟斷之嫌,因此引來FTC和歐盟執委會的調查。   Google此前已經於去年12月首先取得美國聯邦貿易委員會的併購核準。歐盟執行委員會(EUropean Commission;EC)則於日前宣布通過無條件批准Google以31億美元收購線上廣告業者DoubleClick的購併案。   另據CNN Money網站報導,歐盟執委會通過雙方合併,主要基於沒有重大證據顯示,雙方的結合將會削弱微軟(Microsoft)、雅虎(Yahoo!)、美國線上(AOL)等競爭對手的生存空間;其次,Google和DoubleClick彼此並不存在競爭關係,雙方合併對線上廣告市場的競爭,不至於帶來負面的衝擊。   不過,提倡保護個人隱私的組織反對該收購交易,他們認為Google與DoubleClick合併之後,使兩家公司更容易獲取消費者個人資訊。但是歐盟執委會表示個人隱私權問題並非是否同意兩家公司合併的考量事項。   在得到歐盟方面正式核準之後,Google將會正式採取行動併購DoubleClick,將其線上廣告的經營,從文字廣告拓展至顯示廣告(display advertisement)領域。但在這塊線上廣告市場的步步進逼,勢必會刺激微軟加速買下雅虎的決心。

美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

TOP