荷蘭公私協力機制PPP

  自2012年來,荷蘭政府鼓勵荷蘭科學研究機構(Netherlands Organization for Scientific Research, NWO) 隸屬教育文化科學部(Ministry of Education, Culture and Science, OCW)積極推動與9大重要領域(Top Sectors)與企業相關研究的合作,NWO同時是政策實施機構也是創新研發機構。OCW每年資助約275億歐元在重要領域,其中有超過100億歐元在協助公私協力機制 ( Public-Private Partnerships, PPP)。近年來,OCW增加編列給NWO的預算,2014年增加2千5百萬歐元;2015-2017年增加7千5百萬歐元;2018年預計增加1億歐元。PPP 參與者為研究機構(例如大學機構、公私立研究機構)及民間企業(國內國外企業皆可)。主要規範依據NWO-Framework for Public-Private Partnership,合作後以聯盟(consortium)形式運作,聯盟成員間可以契約個別約定合作內容,但相關權利義務仍須遵循NWO-Framework for Public-Private Partnership。關於既有智慧財產權之使用方式,聯盟成員間須另外約定非無償使用。為實現該聯盟之研發目的, NWO為主要出資者時,可成為該研發成果之所有人或共有人,待研發成果運用及收益可以獲得妥善安排時,得將研發成果轉讓予能將研發成果運用效益最大化之人。原則上,參與PPP的企業並不當然有優先權可將該研究成果運用於商業用途,除非參與企業出資額幾乎達到整個研發支出的百分之百,且已簽訂研發成果書面授權或轉讓契約後,始能將該研發成果運用於商業用途。

本文為「經濟部產業技術司科技專案成果」

你可能會想參加
※ 荷蘭公私協力機制PPP, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?no=64&tp=5&d=7308 (最後瀏覽日:2025/07/04)
引註此篇文章
你可能還會想看
中國大陸政府持續就行動遊戲等出版物之行政審查流程進行簡化和加速

中國大陸政府持續就行動遊戲等出版物 之行政審查流程進行簡化和加速 科技法律研究所 法律研究員 蘇彥彰 2014年12月02日 壹、部分出版審批程序調整為「後置審批」制   繼今年8月取消和下放45項行政審批項目,取消11項職業資格許可和認定事項,並將31項工商登記前置審批事項改為後置審批[1]之後,11月24日時國務院再次對外公布決定取消和下放58項行政審批項目,取消67項職業資格許可和認定事項,並將82項工商登記前置審批事項調整或明確為後置審批[2];其中出版物批發業務許可、出版物零售業務許可、設立印刷品印刷經營等活動企業之審批、印刷業兼營包裝裝潢等印刷經營活動審批、音像製作單位設立審批、電子出版物製作單位設立審批、音像複製單位設立審批、電子出版物複製單位設立審批、設立可錄光盤生產企業審批等九項與新聞出版相關之項目,由前置審批調整為後置審批。所謂後置審批係指,企業可以先辦理工商營業執照後,再由主管部門申請審批,雖仍需在主管部門審批完後才可以正式展開經營活動,但企業可以在這段時間內進行公司設立的相關準備工作,提高投資主體進入市場及開展商業活動的速度。 貳、提出行動遊戲雙軌制審批程序以及擴編審查人員,以加速審批、落實管制   除了前述針對新聞、出版、印刷等項目就行政程序進行簡化和加速工作外,中國大陸國家新聞出版廣電總局亦於11月21日公開宣示將「貫徹落實國務院全面督查整改落實」[3],其中包括對移動網絡遊戲(下稱行動遊戲)審批制度進行改革,以改善目前審批時間過長、效率不高的問題。   依據該公告之內容,未來審批制度將朝向雙軌制方向發展,其中對於未涉及民族、宗教、歷史、政治、疆域等議題,且無故事情節或故事情節單純(如棋盤類等休閒益智遊戲)之中國大陸本地自製行動遊戲,將採取簡易審批制度以提高審查效率,同時將審查專家員額倍增至20名,以維持並提高審查品質。在上述改革推動下,目標將縮短審查時間,由現行30天初審、15天複審期限,分別壓縮至15天及5天。其進一步具體做法,中國大陸國家新聞出版廣電總局現正研擬「關於規範移動網絡遊戲出版審批管理的通知」,預計於2014年12月下旬發布施行[4]。 參、小結   近年來中國大陸國務院積極推行行政審核程序的改革,並自2002年起陸續進行了12次行政審核批准事項的取消、調整或下放,而國家新聞出版廣電總局除了持續就各項新聞、出版、發行業務的行政審查管控流程,進行簡化和加速的革新工作外,面對近幾年行動遊戲的興起,除一再重申行動遊戲須符合網路遊戲審批相關規定外,也積極處理行政審批時間過長、效率低落問題,以便落實管制。   惟應注意的是,行動遊戲審批制度的革新,目前係以其國產遊戲為主。對此,是否會間接形成對外國業者競爭上的不對等,我方行動遊戲開發業者宜留意相關發展,納入後續遊戲開發方向與市場策略布局之評估要素一環。 [1] 《国务院关于取消和调整一批行政审批项目等事项的决定》(国发〔2014〕27号) [2] 《国务院关于取消和调整一批行政审批项目等事项的决定》(国发〔2014〕50号) [3] 〈国家新闻出版广电总局贯彻落实国务院 全面督查整改落实进展情况〉,中华人民共和国国家新闻出版广电总局,http://www.gapp.gov.cn/news/1663/232219.shtml(最後瀏覽日:2014/12/01) [4] 大公網,〈廣電總局擬縮減移動網遊審批程序 12月底前實施〉,2014/11/24,http://finance.takungpao.com.hk/tech/q/2014/1124/2837153.html(最後瀏覽日:2014/12/01)

OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability)   由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment)   人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability)   人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。   該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

從推動體系及法制架構思考我國文化創意產業發展之整合以南韓推動組織與法制架構為例

TOP