何謂芬蘭「SHOKs」?


  2006年芬蘭研究創新委員會在其創新政策倡議中指出,為結合產學研就重大發展領域進行長期合作,加速該國公私合作投入創新過程 Public-Private Partnerships (PPP),故以非營利性有限公司型態成立科學技術創新策略中心(Strategic Centres for Science, Technology and Innovation, SHOKs)。

  SHOKs的計畫經費主要由芬蘭技術處(Tekes)提供補助,惟政府補助比例上限:最高上限75%,必要時Tekes可減少補助以符合上述比例。2008年到2014年用於補助研究計畫金額總和為5.45億歐元。

  SHOKs科研計畫成果智財權歸屬及運用規定概述如下:
一、既有智慧財產權歸屬及運用:
1.參與者共同執行研究計畫不影響其既有智慧財產權之歸屬。
2.參與者之既有智慧財產權,若屬其他共同參與者執行計畫有必要者,應依無償或FRAND原則對其他共同執行研究計畫之參與者進行授權。
3.與執行計畫目的無關之既有智慧財產權使用,應另行協商授權事宜。
二、計畫成果智慧財產權歸屬:
1.歸屬於產出成果之一方,但如成果是多方參與者共同產出,原則上共有,但可另約定僅歸屬一方。
2.非SHOKs股東對研發成果產出有重大貢獻者,該研發成果亦可歸屬於該非SHOKs股東。
三、計畫成果智慧財產權之運用:
1.參與者為研究機構者,應向欲運用其研發成果之企業參與者進行移轉或授權時,收取相當於市場價格的補償金。
2.研究計畫參與者得無償取得相同及全球範圍之成果使用權,但除研究機構外不得再授權。

本文為「經濟部產業技術司科技專案成果」

你可能會想參加
※ 何謂芬蘭「SHOKs」?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7307&no=57&tp=1 (最後瀏覽日:2026/05/10)
引註此篇文章
你可能還會想看
歐盟「人工智慧法」達成政治協議,逐步建立AI準則

歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).

德國立法通過反駭客法

  德國政府為減少官方與民間的電腦受到網路駭客的攻擊,於2007年5月正式立法通過「反駭客法(Antihacker Law)」,並藉此擴大了現行德國法律中網路犯罪的懲處範圍,從僅處罰破壞或攻擊商業或政府機關之電腦系統,擴及至破壞或攻擊個人電腦或DOS系統之犯罪。   依德國「反駭客法」之規定,凡任何個人或團體意圖非法使用而故意製造、散播或購買駭客工具(hacker tools)者,將可能被處十年以上有期徒刑。而所謂的「駭客(hacking)」在新法中則被定義為,凡是侵入電腦系統並獲取資訊者,不論是否有竊取該資訊的行為,均屬之。   上述立法結果,反對人士擔心恐將適得其反,因駭客工具的存在具有一體兩面,研發並利用駭客工具來測試電腦以及網路系統的安全性,在德國已行之有年,如果一旦加以禁止,不但無法達到預期目的,也過於輕視網路駭客者的能力;又將來持有駭客工具者,未來必須在法庭上主張係出於善意持有,亦是增加了持有者的舉證責任。該法已經於2007年8月實施。

奧克蘭市(Oakland)成為美國第三個禁止公部門使用人臉辨識技術的城市

  近年來,人臉辨識(Face recognition)技術迅速發展,增加便利性的同時,也伴隨了種種隱憂,如:對隱私權的侵害、公部門權力濫用等,是以加州舊金山市(San Francisco)和麻薩諸塞州薩默維爾市(Somerville)分別在今年(2019)5月和6月發布公部門使用人臉辨識技術的相關禁令,加州奧克蘭市(Oakland)並於7月16日跟進,成為美國第三個禁止公部門使用人臉辨識技術的城市。   2018年麻省理工學院曾針對人臉辨識技術的正確率做過研究,其研究結果報告顯示黑人女性辨識錯誤率超過30%,遠不如白人男性;美國公民自由聯盟(American Civil Liberties Union, ACLU)也針對Amazon人臉辨識軟體Rekognition做過測驗,結果該系統竟誤將28名美國國會議員顯示為嫌疑犯,這兩項研究顯示,人臉辨識技術存有極高錯誤率且對種族間存有很大的偏見與歧視。對此奧克蘭市議會主席卡普蘭(Rebecca Kaplan)一項聲明中表示:「當多項研究都指出一項新興技術具有缺陷,且造成寒蟬效應的時候,我們必須站出來」。   卡普蘭並表示:「建立社區和警察間信任與良好關係以及導正種族偏見是很重要的,人臉辨識技術卻反而加深此問題」、「對於隱私權和平等權的保護是最基本的」,故奧克蘭市通過禁止公部門使用人臉辨識技術的法令,原因如下: 人臉辨識系統所依賴的資料集,具高度不準確性。 對於人臉辨識技術的使用與共享,尚缺乏標準。 這項技術本身具有侵犯性,如:侵犯個人隱私權。 政府如果濫用該技術所得之資訊,可導致對弱勢族群的迫害。   雖然目前美國僅有三個城市通過政府機關禁止使用人臉辨識技術的法令,但依照目前的發展狀態,其他的城市甚至州在未來也可能會跟進頒布禁令。

WHO公布實施遠距醫療綜合指引

COVID-19大流行對公共衛生保健服務施加了巨大壓力,同時限制了實體醫療服務的近用,引起人們對實施或擴大實施遠距醫療(Telemedicine)的極大興趣。為了對應全球對遠距醫療服務的增長,世界衛生組織(World Health Organization , WHO)於今(2022)年11月9日發布《實施遠距醫療綜合指引》(Consolidated Telemedicine Implementation Guide),以幫助政策制定者、決策者與實行者設計與監管遠距醫療之實施。 遠距醫療,涉及使用數位科技來克服公衛服務的距離障礙,具有改善臨床管理和擴大醫療服務覆蓋範圍之潛力。遠距醫療已證明的好處包含減少不必要的臨床就診、提供更及時的醫護和擴大醫療服務的覆蓋率。 這份指引建議政策決策者以及設計和監管遠距醫療之實施人員,實施遠距醫療應分為三個階段,其詳細步驟重點如下: 階段一:評估情況 1.組建團隊,並確立目標:確定應參與遠距醫療設計、管理和實施的利害關係人。 2.定義衛生計畫的背景與目標:確定遠距醫療的服務計畫與其地理範圍。 3.對作業環境進行分析:對應用軟體(Software Applications)與通信平台的訊息傳遞通道(Channel)進行作業環境分析、評估應用軟體是否可符合硬體之需求。 4.評估有利環境:包含評估數位成熟度以確定基礎設施與組織需求、審查公衛工作者的能力、評估監管與政策之顧慮、考慮資訊跨域流動之影響、探討財政機制。 階段二:實施之規劃 1.確定遠距醫療系統將如何運作:定義功能性和非功能性需求、因應需求更新之工作流程、進行廣泛的用戶測試、變更管理計畫。 2.實施病人與衛生系統工作者之安全與保護機制:包含建立個資隱私、近用和保護病人個資的系統、實施公衛人員身分驗證之方式、決定並揭露是否會進行錄音錄影等事項。 3.建立標準操作程序(Standard Operating Procedures, SOP):確定遠距醫療適用的案例與潛在責任、決定培訓方式與支持管道、建立確定身分之流程、建立明確的同意文件、討論是否需改變公衛人員的薪酬、建立聯網醫療器材(Connected Medical Devices)的管理計畫。 4.強化客戶/病人參與以及性別、公平與利害關係人權利:決定遠距醫療之推廣機制(Mechanisms for Outreach)、評估遠距醫療之公平性、對利害關係人權利的影響與確保殘疾人士的可近用性。 5.制定預算:確定總成本預算、計畫如何將遠距醫療服務整合到常態醫療服務和採購安排之中。 階段三:監測和評估(Monitoring and Evaluation, M&E)與持續改善 1.確定監測和評估目標:定義績效評估和影響指標。 2.計畫持續改善和適應性管理:加入日常監管和持續改善機制、降低潛在風險。 WHO最後提醒遠距醫療是對於醫療服務的補充而非取代,並提供一個確保病人安全、隱私、追溯性、問責制的可監督環境。 本文同步刊載於stli生醫未來式網站(https://www.biotechlaw.org.tw)

TOP