何謂芬蘭「SHOKs」?


  2006年芬蘭研究創新委員會在其創新政策倡議中指出,為結合產學研就重大發展領域進行長期合作,加速該國公私合作投入創新過程 Public-Private Partnerships (PPP),故以非營利性有限公司型態成立科學技術創新策略中心(Strategic Centres for Science, Technology and Innovation, SHOKs)。

  SHOKs的計畫經費主要由芬蘭技術處(Tekes)提供補助,惟政府補助比例上限:最高上限75%,必要時Tekes可減少補助以符合上述比例。2008年到2014年用於補助研究計畫金額總和為5.45億歐元。

  SHOKs科研計畫成果智財權歸屬及運用規定概述如下:
一、既有智慧財產權歸屬及運用:
1.參與者共同執行研究計畫不影響其既有智慧財產權之歸屬。
2.參與者之既有智慧財產權,若屬其他共同參與者執行計畫有必要者,應依無償或FRAND原則對其他共同執行研究計畫之參與者進行授權。
3.與執行計畫目的無關之既有智慧財產權使用,應另行協商授權事宜。
二、計畫成果智慧財產權歸屬:
1.歸屬於產出成果之一方,但如成果是多方參與者共同產出,原則上共有,但可另約定僅歸屬一方。
2.非SHOKs股東對研發成果產出有重大貢獻者,該研發成果亦可歸屬於該非SHOKs股東。
三、計畫成果智慧財產權之運用:
1.參與者為研究機構者,應向欲運用其研發成果之企業參與者進行移轉或授權時,收取相當於市場價格的補償金。
2.研究計畫參與者得無償取得相同及全球範圍之成果使用權,但除研究機構外不得再授權。

本文為「經濟部產業技術司科技專案成果」

你可能會想參加
※ 何謂芬蘭「SHOKs」?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7307&no=57&tp=1 (最後瀏覽日:2026/03/05)
引註此篇文章
你可能還會想看
歐盟執委會發布關於歐洲境內資料流監控之新研究

  歐盟執委會(The EU Commission)於2022年2月3日發布了一項研究,其繪製並預估歐盟27個成員國以及冰島、挪威、瑞士和英國等國家彼此之間的主要雲端基礎設施的資料流量。該研究概述了各級產業、位置、企業規模和雲端服務類型的雲端資料流入和流出的流量和類型。政策、決策者、商業領袖與公共行政部門可以將其作為參考,以支持對未來貿易協定、工業決策和雲端投資的決策。   在歐盟的歐洲資料戰略中,認識到獲取有關資料流的經濟情報的戰略重要性,因此提出了資料流戰略分析框架的發展。為了實現這一關鍵行動,歐盟執委會開展了上述關於繪製資料流的研究,首次開發和測試了一種全新、自我維持與可複製的方法,從而產生了資料流可視化工具,用於測量、映射和分析歐洲31個國家與地區的各級產業、地理和企業規模的雲端資料流。而該資料流可視化工具中顯示的資料預計將每年更新一次。使用的資料收集來源從官方統計資料等主要來源到調查和訪談等次要來源。   該工具得以讓歐盟執委會: 一、繪製和估計歐盟27個成員國(即歐盟內部資料流)和冰島、挪威、瑞士和英國(即歐盟外資料流)的雲端計算領域主要資料流的數量 二、預測至2030年的資料流出 三、分析各產業、公司規模和雲端服務類型的資料流量   該研究顯示2020年最大的資料流來自醫療衛生產業,而德國的資料流入量最大。該報告還估計,到2030年,來自歐洲企業的資料流量將是2020年的15倍。   作為資料流市場關鍵層面之一,透過進一步調查資料趨勢,將協同即將出現的資訊法案打造一個更加生動、動態和流動的雲端市場。

紐約市實施《生物辨識隱私法》強化生物特徵保護

  伴隨人工智慧、大數據及雲端運算浪潮,生物辨識技術逐漸成為日常生活的一部分。所謂生物辨識技術,是指利用個人獨特之生物特徵辨識個人的技術。生物特徵包含任何人類生理或行為特徵,只要能夠滿足普遍性、獨特性、不變性及可蒐集性 ,即可作為生物辨識之資訊。由於生物辨識技術能利用生物特徵達到識別與驗證個人身分,因而引發公眾對隱私、資安等議題的關注。   對此,紐約市於2021年7月21日也開始正式施行《生物辨識隱私法》(biometric privacy act) ,期能藉由限制業者利用生物辨識技術以及賦予消費者訴訟權利作法,促成隱私權的週全保障。   該法主要有三大部分: 一、規範生物辨識資訊範圍,包含但不限於(1)視網膜或虹膜掃描(2)指紋或聲紋(3)手或臉部立體掃描或是其他可用於識別之特徵。就前開生物特徵,要求業者應在所有消費者入口處放置清晰顯眼的標誌,搭配簡單易懂方式揭露其蒐集、保留、儲存消費者生物辨識資訊行為。同時,也明文禁止業者將消費者生物辨識資訊以販賣、租賃、交易或是分享方式交換任何相關價值或利益。 二、提供受侵害之消費者訴訟權與法定賠償請求權。但是,就單純未符合揭露要求之業者,該法給予30天的補救期間,要求消費者應於起訴前30天通知業者改善,一經改善即不得再起訴。 三、闡明政府相關部門不適用本法。金融機構、業者與執法部門共享生物辨識資訊,以及單純以影像、圖像蒐集而未分析識別情形則豁免揭露規範。   綜上,紐約市於該法創設訴訟權、法定賠償數額及豁免事由,預料將會是紐約市企業隱私保護政策重要指標,而值得我們繼續關注其發展與影響。

日本發布網路安全相關法令問答集

  日本國家網路安全中心(内閣サイバーセキュリティセンター,或稱National Information Security Center, NISC)於2020年3月2日發布「網路安全相關法令問答集」(サイバーセキュリティ関係法令Q&Aハンドブック),以回應日本內閣在2017年7月27日通過的「網路安全戰略」(サイバーセキュリティ戦略)中所提及應整理相關法制,以利企業實施網路安全措施與對策之決定。因此,內閣網路安全戰略本部(サイバーセキュリティ戦略本部)普及啟發‧人才培育專門調查會(普及啓発・人材育成専門調査会)於同年10月10日成立工作小組,針對網路安全相關法令進行推動與調查工作。   本問答集內容涉及13項法律議題,包括議題如下: 說明網路安全基本法(サイバーセキュリティ基本法)網路安全之定義與概要; 以公司法為核心,從經營體制觀點說明董事義務,例如建立內部控制機制,以確保系統審核與資料揭露之適當性; 以個人資料保護法為核心,例如說明個人資料的安全管理措施; 以公平交易法(不正競争防止法)為核心,說明在營業秘密的保護範圍內,利用提供特定資料與技術手段,來實施迴避行為係屬無效; 以勞動法規為核心,說明企業採取網路安全措施之組織與人為對策; 以資通訊網路、電信業者等為中心,說明IoT相關法律問題; 以契約關係為中心,說明電子簽章、資料交易、系統開發、雲端應用服務等議題; 網路安全相關證照制度,例如資訊處理安全確保支援人員; 說明其他網路安全議題,例如逆向工程、加密、訊息共享等; 說明發生網路安全相關事故之因應措施,例如數位鑑識; 說明當網路安全糾紛有涉民事訴訟時應注意之程序; 說明涉及網路安全之刑法規範; 描述日本企業在實施網路安全措施時,應注意之相關國際規範,例如歐盟一般資料保護規則(General Data Protection Regulation, GDPR)與資料在地化(Data Localization)等議題。   此外,隨著網路與現實空間的融合,各產業發展全球化,相關法規也日益增加,惟網路安全相關法規,在原無網路安全概念與相關法制的日本法上,卻鮮少有較為系統化的概括性彙編與解釋文件。因而盤點並釐清網路安全相關法令則成為首要任務,故研究小組著手進行調查研究,並將調查結果—「網路安全法律調查結果」(サイバーセキュリティ関係法令・ガイドライン調査結果)與「第四次關鍵基礎設施資訊安全措施行動計畫摘要表」(重要インフラの情報セキュリティ対策に係る第4次行動計画)作為本問答集之附錄文件以資參酌。最後,NISC期待透過本問答集,可作為企業實施具體網路安全對策之實務參考。

金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。

TOP