荷蘭科學研究組織(Netherlands Organisation for Scientific Research, NWO)與公私夥伴關係

  自2012年開始,荷蘭科學研究組織(Netherlands Organisation for Scientific Research, NWO)會擇定幾個重點領域,該重點領域係包含:農業食品,園藝及繁殖材料,水 ( Agri & Food, Horticulture & Propagation Materials, Water)、生物經濟,化學,跨部門的信息和通信技術方案(Biobased Economy, Chemistry, Cross-sector theme ICT)、創意產業(Creative Industry)、能源產業(Energy)、生命科學與健康(Life Sciences and Health)…等等領域,並由其中擇定有發展前景的計畫(top program),以公私夥伴關係推動發展,其每年投注於該重點領域研究金額大約245,000,000歐元,而投注於公私夥伴關係計畫中的金額更高達100,000,000歐元。公部門與產業間以及研究者間權利義務關係依合作強度以及產業投入的資金而有所不同。荷蘭此類公私夥伴關係依發動者不同而分三種不同類型:
1.科學家發動的公私夥伴關係(Science Takes Initiative)
2.共同發動的公私夥伴關係(Joint Initiative)
3.由產界發動之公私夥伴關係(Business Takes Initiative)

  NWO在評估是否給予補助時,可以採取面談或現場參觀評估之方式,而NWO亦得附帶條件要求補助所購買的特殊儀器設備提供他人使用。而NWO補助所生的研究成果應盡可能公開並有利於未來的研究使用,例外情形則可延後公開。

  又研究成果原則上係歸屬受補助者,但NWO在於特定研究補助之目的有此必要,得於事前與受補助者簽訂書面協定取得研究成果之權利。又若該研究計畫是在國外執行且完全由該國之學術機構負責,在該國的專利法並不損及荷蘭方之當事人依荷蘭專利法可享的權利下,則該國之學術機構就研究成果之開發及利用得依該國專利法之規定。國際合作的公私夥伴間彼此的權利義務會因個案約定而有不同。

本文為「經濟部產業技術司科技專案成果」

※ 荷蘭科學研究組織(Netherlands Organisation for Scientific Research, NWO)與公私夥伴關係, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7718&no=57&tp=5 (最後瀏覽日:2026/02/18)
引註此篇文章
你可能還會想看
英國金融行為監督總署公布《加密資產指引》諮詢文件

  英國金融行為監督總署(Financial Conduct Authority, FCA)與英國財政部、英格蘭銀行於2018年3月共同組成「加密資產專案小組」(Cryptoasset Taskforce),為英國政府「金融科技產業戰略」(Fintech Sector Strategy)之一環。2019年1月23日,FCA公布《加密資產指引》(Guidance on Cryptoassets)諮詢文件,除在配合加密資產專案小組之調查、研究外,亦在於落實FCA作為金融監理主管機關,盤點及釐清法規適用之職責,以妥適因應金融科技發展。公眾意見徵集期間至2019年5月4日,FCA並預計在同年夏季提出最終版本的報告。   依據《加密資產指引》,FCA臚列了四項監理代幣(token)可能的法源依據,包含: (1)受監管活動指令(Regulated Activities Order)下的「特定投資項目」。 (2)歐盟金融工具市場指令II(MiFID II)下的「金融工具」。 (3)電子貨幣條例(E-Money Regulations)下之「電子貨幣」。 (4)支付服務條例(Payment Services Regulations)。   由於加密資產市場與分散式記帳技術發展迅速,參與者迫切需求更清晰之監理規範,包含交易匯兌、主管機關等,避免因誤觸受管制之活動(regulated activities)而遭受裁罰。其次,FCA亦希望能強化消費者保護,依照加密資產商品類型,讓消費者知道可以尋求何種法律上之保障。

英國資訊委員辦公室(ICO)進行監理沙盒初步公眾意見徵詢

  英國資訊委員辦公室(Information Commissioner's Office, ICO)2018年9月就監理沙盒為初步公眾意見徵詢,以瞭解其可行性。ICO監理沙盒之建立係依據英國2018-2021年科技策略(Technology Strategy for 2018-2021),並參考英國金融行為監理總署(Financial Conduct Authority, FCA)已成功發展之沙盒機制。ICO將提供組織於安全可控且不排除資料保護法規適用的環境下,以創新方式應用個資於開發創新產品與服務,並提供關於降低風險與資料保護設計(data protection by design)的專業知識和建議,同時確保組織採取適當安全維護措施。徵詢重點分為六部分: 障礙和挑戰(Barriers and Challenges):歐盟一般資料保護規則(General Data Protection Regulation, GDPR)或英國2018年資料保護法(Data Protection Act 2018, DPA18)之適用,以及ICO之監管方法,是否造成組織以創新方式應用個資於開發創新產品與服務之障礙或挑戰。 適用之可能範圍(Possible scope of an ICO Sandbox) 了解參與益處(Understanding the benefits of involvement) 機制(Sandbox mechanisms):於監理沙盒機制下不同階段提供指導,初期就如何解決資料保護相關問題提供非正式之指導(informal steers);中期提供法律允許與具適當保護措施之監管指導,如對參與者進入沙盒期間內非故意違反資料保護原則之行為,不會立即受到制裁之聲明函(letters of comfort)、確認組織未違反相關資料保護法規等;以及針對新興技術和創新特定領域,提供解決資料保護挑戰之預期指導(anticipatory guidance),如訂定相關行為準則(code of conduct)。 時機(Sandbox timings):包含開放申請進入沙盒時點、進入模式、是否彈性因應產品開發週期、測試階段期間等。 管理需求(Managing Demand):如設定優先進入沙盒領域、類型、設定參與者數量上限等。   該諮詢於10月12日結束,2018年底將公布結果,值得持續追蹤,以瞭解ICO監理沙盒未來之發展。   ICO亦接續於10月建立監管機關業務和隱私創新中心(Regulators’Business and Privacy Innovation Hub),與其他監管機關合作提供資料保護之專業知識,以確保法規與未來的技術同步發展;該中心也將與ICO監理沙盒共同推動,支持組織以不同方式使用個資開發創新產品和服務。

OECD發布「促進人工智慧風險管理互通性的通用指引」研究報告

經濟合作發展組織(Organisation for Economic Co-operation and Development,下稱OECD)於2023年11月公布「促進AI風險管理互通性的通用指引」(Common Guideposts To Promote Interoperability In AI Risk Management)研究報告(下稱「報告」),為2023年2月「高階AI風險管理互通框架」(High-Level AI Risk Management Interoperability Framework,下稱「互通框架」)之延伸研究。 報告中主要說明「互通框架」的四個主要步驟,並與國際主要AI風險管理框架和標準的風險管理流程進行比較分析。首先,「互通框架」的四個步驟分別為: 1. 「定義」AI風險管理範圍、環境脈絡與標準; 2. 「評估」風險的可能性與危害程度; 3. 「處理」風險,以停止、減輕或預防傷害; 4.「治理」風險管理流程,包括透過持續的監督、審查、記錄、溝通與諮詢、各參與者的角色和責任分配、建立問責制等作法,打造組織內部的風險管理文化。 其次,本報告指出,目前國際主要AI風險管理框架大致上與OECD「互通框架」的四個主要步驟一致,然因涵蓋範圍有別,框架間難免存在差異,最大差異在於「治理」功能融入框架結構的設計、其細項功能、以及術語等方面,惟此些差異並不影響各框架與OECD「互通框架」的一致性。 未來OECD也將基於上述研究,建立AI風險管理的線上互動工具,用以協助各界比較各種AI風險管理框架,並瀏覽多種風險管理的落實方法、工具和實踐方式。OECD的努力或許能促進全球AI治理的一致性,進而減輕企業的合規負擔,其後續發展值得持續追蹤觀察。

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

TOP