何謂日本「促進整合產官學共同研究的大學概況調查書」?

  「促進整合產官學共同研究的大學概況調查書(産学官共同研究におけるマッチング促進のための大学ファクトブック)」為日本經濟產業省與文部科學省所共同設置的「促進創新產官學對話會議」議定後向外提出,期待藉此使企業更容易理解大學的產官學合作現狀,進一步實現正式的產官學連攜活動。

  該概況調查書的先行版中收集整理了各大學整合產官學連攜的實績等資訊,2018年發布的正式版則統整日本327所大學的情報,擴充並更新了該概況調查書的內容,包含:1.產學連攜相關的聯絡窗口資訊等;2.產官學連攜活動的配套方針與往後期待重點化的事項;3.產學連攜之本部機能的相關情報;4.面向正式共同研究的配套措施,如平均交涉期間、跨領域型共同研究;5.各大學之專精領域及其實例;6.資金、資產及智慧財產相關連的持有使用狀況;7.大學發起的創投事業數及其支援體制;8.混合僱用制度的狀況。

本文為「經濟部產業技術司科技專案成果」

※ 何謂日本「促進整合產官學共同研究的大學概況調查書」?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8090&no=55&tp=5 (最後瀏覽日:2026/04/01)
引註此篇文章
你可能還會想看
現有法制對公立大學教授技術作價之現況與困難

美國最高法院判決診斷方法不具可專利性

  美國最高法院近日在Mayo Collaborative Services與Prometheus Laboratories一案中判決2項與免疫疾病有關的診斷方法專利無效,業界擔憂該判決將對處於新興發展階段的個人化醫療領域的研發投入與創新有著負面影響。   本案源於Prometheus所擁有的在不同劑量下thiopurine藥物代謝情況的診斷方法專利(由於病患的藥物代謝率不同,因此醫生在判斷特定病患的藥物劑量高低有相當的困難度),Mayo購買使用Prometheus的診斷方法後, 2004年Mayo開始對外販售自己的診斷方法。Prometheus主張Mayo侵害其專利,聯邦地方法院認為該專利建構於自然法則與現象上,因此不具可專利性,但聯邦巡迴上訴法院則有不同的看法,本案因此一路爭執至最高法院。   對於自然法則、現象以及抽象的概念,基於其作為科技發展的基礎工具,為避免妨礙創新發展,一直以來法院都持不具可專利性的看法。在相關的前案中,唯有在自然法則之外,包含創新概念的元素,才能超越自然法則本身而成為專利。本案中最高法院表示,本案專利方法步驟,不符合前述基於創新概念而授與專利的條件,且該方法步驟為該領域人所熟知、常用,授與專利將導致既有的自然法則被不當的受限而影響後續進一步的發現。   評論者表示儘管該判決並未提供一個清楚的判斷標準,但並不因此讓下級法院對這類的個人化醫療專利全數否決。然本案對於可專利性客體的判斷,影響將不僅止於生命科學,進而包括所有涉及可專利性客體的軟體、商業方法類型專利,後續影響值得持續關注。

台美貿易談判 藥廠權益是焦點

  據報載, 5 月 25 日 起在我國舉行兩天之台灣與美國貿易投資架構協定( TIFA )會談,藥廠權益乃雙方談判焦點,美方這次來台所提出之談判項目中,對台灣藥廠衝擊較大的是資料專屬權( Data Exclusivity ),及專利連結( Pattern Linkage )兩項,本土製藥業擔心,政府若妥協將可能造成台灣藥廠及研究單位新台幣上百億元的損失。   儘管去年初立法院已經三讀通過藥事法 40 條之 2 的「資料專屬權保護」條文,但預料美方這次將要求政府重新修法,以保障外商藥廠的權益。此外,專利連結( patent linkage )也是衛生署嚴陣以待的項目,外商訴求此一機制之目的,係希望透過專利資訊之揭露,使任何申請上市許可之學名藥品,均係在專利到期後或未侵害專利之前提下,使得上市。   專利連結制度首見於美國,美國食品藥物管理局 (FDA) 對藥品有所謂之「橘皮書」,要求公布各藥品的專利內容及安全性與療效資訊,並以此作為日後學名藥賞上市或與原開發藥廠發生專利侵權爭訟時之參考。業界認為,如果台灣也比照美國 FDA 專利連結的規定,可能導致外商藥廠得以輕易對台灣藥廠展開侵權訴訟官司,衝擊我國製藥產業。

IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability)   由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment)   人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability)   人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。   該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

TOP