何謂「TLO」?

  「TLO」係「技術移轉機關(Technology Licensing Organization)」之簡稱,專指大學研究成果申請專利後,將該等技術移轉給企業等之機關,如同產學間的仲介角色。

  日本於平成10年(西元1998年)5月6日通過「促進大學等實施技術研發成果移轉給民間企業法(簡稱大學等技術移轉促進法或TLO法)」,目的在於將大學之研究成果技轉給民間企業,促進研究成果之實用化。

  在承認TLO存在之同時,日本做了以下法令之配套:依據TLO法第8條,實施特定大學技術移轉之事業期間,第1年到第10年之授權金及專利申請審查手續費用減免1/2、產業競爭力強化法第19規定,若國家委託之研發成果,歸屬於受託者時,該研發成果之移轉授權不須經國家之承認、同時大學法人法第22條允許國立大學得為出資。同時TLO法亦承認若中小企業透過TLO取得研究成果之授權時,得降低中小企業投資育成株式会社支出資要件。

本文為「經濟部產業技術司科技專案成果」

你可能會想參加
※ 何謂「TLO」? , 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=7593&no=64&tp=5 (最後瀏覽日:2026/01/26)
引註此篇文章
你可能還會想看
加拿大政府提交予國會《人工智慧資料法案》

  加拿大政府由創新、科學和工業部長(Minister of Innovation, Science and Industry)代表,於2022年6月16日提交C-27號草案,內容包括聯邦的私部門隱私權制度更新,以及新訂的《人工智慧資料法案》(Artificial Intelligence and Data Act, 下稱AIDA)。如獲通過,AIDA將是加拿大第一部規範人工智慧系統使用的法規,其內容環繞「在加拿大制定符合國家及國際標準的人工智慧設計、開發與應用要求」及「禁止某些可能對個人或其利益造成嚴重損害的人工智慧操作行為」兩大目的。雖然AIDA的一般性規則相當簡單易懂,但唯有在正式發布這部包含絕大多數應用狀況的法規後,才能實際了解其所造成的影響。   AIDA為人工智慧監管所設立的框架包含以下六項: (1)方法 以類似於歐盟《人工智慧法案》採用的方式,建立適用於人工智慧系統具「高影響力」的應用方式的規範,關注具有較高損害與偏見風險的領域。 (2)適用範圍 AIDA將適用於在國際與省際貿易及商業行動中,設計、發展或提供人工智慧系統使用管道的私部門組織。「人工智慧系統」的定義則涵蓋任何「透過基因演算法、神經網路、機器學習或其他技術,自動或半自動處理與人類活動相關的資料,以產生結果、做出決策、建議或預測」的技術性系統。 (3)一般性義務 I 評估及緩和風險的措施 負責人工智慧系統的人員應評估它是否是一個「高影響系統」(將在後續法規中詳細定義),並制定措施以辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果。 II 監控 對該「高影響系統」負責的人員應建立準則,以監控風險緩解措施的遵守情況。 III 透明度 提供使用管道或管理「高影響系統」運作的人員應在公開網站上,以清晰的英語揭露   i 系統如何或打算如何使用。   ii 系統所生成果的類型及它所做出的決策、建議與預測。   iii 為辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果,而制定的緩解措施。   iv 法規明定應揭露的其他訊息。 IV 記錄保存 執行受規範活動的人員應遵守紀錄保存要求。 V 通知 若使用該系統將導致或可能導致重大傷害,「高影響系統」的負責人應通知部門首長。 VI 匿名資料的使用 從事法案所規定的活動及在活動過程中使用或提供匿名資料的人員,必須依據規範制定關於(a)資料被匿名化處理的方式(b)被匿名化資料的使用與管理,兩方面的措施。 (4)部長命令 部門首長可以透過命令要求(a)製作紀錄(b)從事審計或聘請一位獨立的審計師執行(c)成立一個專責執行審計程序的組織(d)成立一個在有理由相信「高影響系統」之使用可能造成急迫重大傷害風險時負責進行終止或准許的組織。 (5)行政管理 AIDA為部門首長制定一項,可指定其所管轄部門中一名高級官員為「人工智慧與資料專員」的權利,其職責在協助部門首長管理與執行AIDA。 (6)罰則 違反AIDA規範之罰則主要為按公司、個人之收入衡量的罰款。特定嚴重狀況如以非法方式取得人工智慧訓練用資料、明知或故意欺騙大眾造成嚴重或心理傷害或財產上重大損失,亦可能判處刑事監禁。

美國聯邦審計署發布先進空中交通議題研究報告,將有利於航空轉型

  美國聯邦審計署(Government Accountability Office, GAO)於2022年5月9日發布「航空轉型:經利害關係人確認之先進空中交通議題」(Transforming Aviation: Stakeholders Identified Issues to Address for 'Advanced Air Mobility')研究報告。未來,先進空中交通(Advanced Air Mobility, AAM)服務可透過小型或高度自動化(highly-automated)電動垂直起降航空器(eVTOL)翱翔於天際,不僅可提供載人或載物服務、減少交通壅塞,並可應用於救援與醫療運輸等領域。GAO透過訪談36位利害關係人,意識到AAM發展關鍵在於相關法制環境之整備速度。基此,GAO於研究報告中,整理當前各AAM新創業者於開發與落實上面臨之4大問題,分別簡述如下: (1)航空器檢定標準:美國聯邦航空總署(Federal Aviation Administration, FAA)對於航空器之檢定規範,目前尚未涵蓋具備AAM新功能之載具,如電力推進或垂直起降等。 (2)起降場與電力之基礎設施:FAA尚未制定垂直機場降落設施,及航空器電池充電需求之電力基礎設施相關標準。 (3)提高公眾載具安全性接受度:AAM產業須證明此類航空器之安全性、可靠性、低噪音與商用可行性,以支持該產業之發展與成長。 (4)作業人員所需之各種培訓與認證標準:飛行員與維修技術作業人員需接受相關新功能培訓。惟利害關係人指出可能面臨高教育成本、缺乏工作場域多樣性、機會意識(awareness of opportunities)不足,及培訓能力有限等問題。

美國FCC新機上盒管制措施正式生效

  美國聯邦通訊委員會(Federal Communications Commission)於1998年要求有線電視業者將條件式接取(conditional access, CA)元件與機上盒的基本瀏覽設備分離;並於2003年採用CableCARD做為共通標準,希望藉由此「機卡分離」措施,達成有線電視服務層與設備層的結構分離,為設備層導入競爭與投資,以促進機上盒之功能創新與降低價格。   惟本措施2007年實施以來,因CableCARD安裝程序複雜、有線業者與機上盒製造商態度消極,致實行成效不彰。絕大多數的民眾仍未自購市售機上盒;且租用有線業者所提供機上盒者,大多未安裝CableCARD。   FCC故於2010年底發佈新命令,希望弭平有線訂戶租用與自購機上盒之落差;本命令於2011年8月生效,FCC表示將「嚴格執行」以下八項政策。有線業者應: (1)提供零售機上盒相容性之精確資訊; (2)提供非租用機上盒之訂戶同等的頻道套餐折扣; (3)無論租用或自購機上盒,CableCARD之價格必須一致,且明確揭露費用; (4)不得因租用或自購機上盒而行費率之差別待遇; (5)允許訂戶自行安裝CableCARD; (6)專業安裝人員必須到府完整安裝CableCARD; (7)提供具多重串流(multi-stream)效能之CableCARD; (8)確保得以收視所有的線性(linear)頻道。

英國民航局發布航空AI監管策略三文件,以因應AI於航空領域之挑戰與機會

英國民用航空局(United Kingdom Civil Aviation Authority, CAA)於2024年12月3日發布「CAA對新興AI驅動自動化的回應」(The CAA's Response to Emerging AI-Enabled Automation)、「航空人工智慧與先進自動化監管策略」(Part A:Strategy for Regulating AI and Advanced Automation in Aerospace)以及「CAA 應用AI策略」(Part B: Strategy for Using AI in the CAA)等三份文件。首先,前者概述CAA對於AI應用於航空領域之總體立場,強調以確保安全、安保、消費者保護及環境永續等前提下,促進AI技術在相關航空領域之創新與應用;其次,「航空人工智慧與先進自動化監管策略」著重說明如何於航空領域監管AI技術之使用,以兼顧推動創新並維持安全性及穩健性;最後,「CAA 應用AI策略」則聚焦於CAA內部使用AI技術提升監管效率與決策能力的策略。 由於AI正迅速成為航空產業之重要技術,其應用範圍包含航空器、機場、地面基礎設施、空域、航太、消費者服務等,具有提高航空安全性、運作效率、環境永續性與消費者體驗之潛力。然而,相關技術風險與監管挑戰亦伴隨而至,仍需新的監管框架應對潛在風險。因此,總體而言CAA以推動AI創新技術、提升航空產業效率與永續性為目標,透過了解技術前景、建立AI通用語言,並以航空領域之五大原則為監管框架之制定核心,建立靈活的AI監管體系,維持最高水準的安全保障。五大原則及案例分述如下: (1) 安全、安保與穩健性(Safety, Security and Robustness),例如:使用AI分析航空器感測器資料進行預測維護,以利提早發現問題。 (2) 透明與可解釋性(Transparency and Explainability),例如:清楚記錄AI系統如何提出空中交通路線建議。 (3) 可質疑性與矯正機制(Contestability and Redress),例如:制定一套明確的流程,以便航空公司查詢並了解AI生成的安全建議。 (4) 公平與偏見(Fairness and Bias),例如:確保自動化旅客篩查安檢系統公平對待所有旅客。 (5) 問責與治理(Accountability and Governance),例如:明確界定AI系統在機場運營中的監管角色與職責。 .Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em}

TOP