日本東京大學透過Proprius21專案促進產學合作

  Proprius21專案乃是日本東京大學提供企業界可以與該校共同進行研究的一種機制,屬產學合作方式之一。此專案之提出,係該校有鑒於過去產業界與學術界合作進行共同研究的模式,多以特定的企業與特定的研究室間進行一對一的研究為主。然此一共同研究方式雖可讓大學所產出的知識貢獻給社會。但仍嫌規模過小,課題及責任分擔或目標成果不夠明確,所以需要一個可以創造更大規模的創新的機制。基此,東京大學希望透過Proprius21專案創造一個可由該校內部數個單位或研究室,共同參與大型研究主題的專案,以實現從多樣化的觀點來因應數個或一個企業需求之共同研究(多對多或多對一),並結合校內能量完成提案的機制。

  東京大學規劃在校內以三階段活動進行Proprius21專案:(1)公開交換意見,即讓「產業界與學術界相遇的場合」的廣場活動。(2)濃縮出最佳的主題,以及尋找最佳成員之個別活動。(3)由成員縝密地製作計畫,由成員以外的人審視計畫內容,打造一個更為優質計劃的篩選活動。

  為了推動Proprius21專案,東京大學係由產學合作研究推進部協助日本企業與校內研究人員進行個別的會議及研討會或研習營等活動,同時也針對企業在決定研究主題後,至計畫成案為止間之各階段提供各種支援。此外,該部人員也會接受來自產業界的諮詢,並在製作計畫之際,適當地介紹校內的職員,提供技術建議或審視計畫的內容等各種支援。

本文為「經濟部產業技術司科技專案成果」

你可能會想參加
※ 日本東京大學透過Proprius21專案促進產學合作, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7309&no=67&tp=5 (最後瀏覽日:2026/02/15)
引註此篇文章
你可能還會想看
巴西政府與美國藥商達成專利協定

  經歷十天的談判,巴西政府與美國製藥廠商 Abbott Laboratories終於達成專利協定。在此之前,巴西政府表示將開始製造一種主要抗HIV/AIDS藥物,Kaletra,的學名藥。此舉也造成製藥商的壓力,使其同意在今後六年降低Kaletra的價格,以維持該藥物在巴西的專利權,巴西也將得到Kaletra的下ㄧ代新配方。   巴西目前每年需給付約1.07億美金(約34億台幣)購買Kaletra,並免費提供給國內病患。 Abbort Laboratories 同意在不提高整體費用的前提下治療更多病患,為巴西節省超過2.5億美金。製藥商表示巴西是非洲之外取得最多價格讓步的國家。另外,若此藥物的專利權被破壞,製藥公司也將不敢投資進一步的研究。   此談判受到許多開發中國家的關注,在這些國家約有 3600 萬人感染 HIV 病毒。巴西政府在最後一刻改變心意,同意不破壞專利權的舉動,必定會激怒許多 HIV 遊說團體。這些團體一再敦促巴西政府破壞 Kaletra 之專利權。他們認為,根據世界貿易組織法則( World Trade Organization rules ),破壞該藥物專利權是合法的,並且有助於降低全世界抗逆轉濾過性病毒藥物的價格。

自駕車之發展與挑戰-以德國法制為借鑑

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

第三方支付法制問題研析

TOP