日本委託研究開發之智慧財產治理運用指引

  委託研究開發之智慧財產治理運用指引(委託研究開発における知的財産マネジメントに関する運用ガイドライン,以下簡稱委託研發智財運用指引)為日本經濟產業省制定並於2015年5月15日公布,用於規範該省、或該省所轄獨立行政法人委外執行技術研發計畫而產出的各項智慧財產權之管理運用事宜。

  日本於產業技術力強化法第19條納入拜杜法(Bayh-Dole Act)的意旨,建立了政府資助研發所生的智財權成果歸屬受託單位的原則,但同時為促進研發成果的第三人商業化利用,落實國家資助技術研發成果獲得充分運用以達成國家財富最大化的政策方針,因而作成該指引。

  委託研發智財運用指引以委託機關和受託單位為規範對象,首先揭示了研發成果商業化利用的重要性,並以此為核心思維,賦予委託機關須就個別委外研發計畫,在計畫開始前訂定計畫智財權管理方針,並向潛在計畫參加者提示的義務,同時,委託機關須確保委託契約中包含智財權等成果管理運用之約款,例如針對成果有無適用日本拜杜法規定、受託單位承諾在相當期間內未妥善運用成果時開放第三人利用等;另一方面,受託單位則有義務就計畫設置智財營運委員會,負責在計畫執行期間處理智財權管理事宜。

本文為「經濟部產業技術司科技專案成果」

你可能會想參加
※ 日本委託研究開發之智慧財產治理運用指引, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8237&no=57&tp=5 (最後瀏覽日:2026/05/14)
引註此篇文章
你可能還會想看
美國OMB發布M-26-04備忘錄,確立聯邦採購之「無偏見原則」與透明度義務

美國白宮管理與預算辦公室(Office of Management and Budget,以下簡稱OMB)在2025年12月11日發布M-26-04備忘錄(以下簡稱本指引),目標是落實第14319號行政命令「防止聯邦政府中的覺醒AI」(Preventing Woke AI in the Federal Government)。本指引闡述「追求真相」(Truth-seeking)、「意識型態中立」(Ideological Neutrality)兩大「無偏見AI原則」(Unbiased AI Principles),並強制要求聯邦機構在採購大型語言模型(LLM)時,必須將此二原則納入合約條款。 為確保符合規定,本指引要求聯邦機構在進行採購時,應避免強制供應商揭露過於敏感的技術資料(如模型權重),而是採取以下兩層級的資訊揭露架構: 1. 基本透明度要求(Minimum Threshold for LLM Transparency) 各機構於招標階段,應要求供應商提供以下資訊: (1) 可接受的使用政策:界定產品適當與不適當用途的文件。 (2) 模型、系統和/或資料的摘要卡(Model, System, and/or Data Cards):包含訓練摘要、風險緩解措施及基準測試評分。 (3) 終端用戶資源與意見回饋機制:包含用戶教程及針對違反無偏見原則產出的回報管道。 2. 強化透明度門檻(Threshold for Enhanced LLM Transparency) 若機構擬將模型整合至其他軟體或服務中,則需獲取更深入的開發與運作資訊,例如: 1. 預訓練和後訓練(Pre-Training and Post-Training):如影響產出事實性(factuality)的活動、系統提示詞(System Prompts)、以及內容審查過濾器的具體運作。 2. 模型評估:針對政治議題的偏見測試結果與方法論。 3. 模型中嵌入的企業控制(Enterprise-Level Controls): 如可客製化的系統指令或來源引用功能。 4. 第三方對模型的修改:非原廠開發者所施加的額外控制層。 本指引對聯邦行政機構具有行政拘束力。機構必須於2026年3月11日前更新採購政策,並將上述要求納入新舊合約中。值得注意的是,本指引引入了「實質性要求」(Materiality Requirement),即若供應商拒絕針對違反無偏見原則的產出採取糾正措施,將構成合約違約之重要事由,機構得據此終止合約。 觀察美國OMB此次發布的內容,係透過將「意識形態中立」轉化為具體的採購合規要件,OMB利用聯邦政府龐大的購買力,在採購合約中確立供應商的「透明度義務」,OMB指引不僅建立了明確的法遵標竿,更可能發揮示範效應,將政府端的無偏見規範逐步推廣至私營部門,轉化為產業的最佳實踐標準。

父母對子女網路使用法律責任之相關德國判決-由『國小生轉貼 YouTube 連結被控侵害著作權』新聞談起

美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見

  美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。   依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。   依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。   此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。   最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。

行政院審查通過「食品衛生管理法」及「健康食品管理法」修正草案

  「食品衛生管理法」及「健康食品管理法」修正草案已於94年11月30日經行政院第2968次院會審查通過,將於近期進一步送立法院審議。未來只要有食品遭檢出含有害人體健康的物質,或標示不清,都一律得先下架禁賣並封存。而食品廣告誇大不實或宣稱具有療效部分,也在這次修法中加重其相關罰則。 本次修法重點為: 一、廣告管理:延長傳播業者保存委託刊播廣告者資料之期間,由原本2個月修正為6個月(食品衛生管理法修正條文第十九條、健康食品管理法修正條文第十五條)。 二、提高罰鍰額度: 1.加重宣稱療效健康食品業者之行政處分,提高其罰鍰額度,由原本6萬元以上30萬元以下,修正為20萬元以上100萬元以下,並規定一年內再違反者,得廢止其營業或工廠登記證照。(健康食品管理法修正條文第二十四條) 2.對於影響民眾飲食衛生安全較鉅之違法情節,提高罰鍰額度,將部分原本3萬元以上15萬元以下或4萬元以上20萬元以下,提高為6萬元以上30萬元以下(食品衛生管理法修正條文第三十一條及第三十三條)。 三、違規業者加重行政處分:違規標示產品 除應通知限期回收改正,進一步明定於改正前不得繼續販賣(食品衛生管理法修正條文第二十九條)。 四、擴大地方主管機關得命暫停作業並將物品封存之範疇(食品衛生管理法修正條文第二十四條)。

TOP