2006年芬蘭研究創新委員會在其創新政策倡議中指出,為結合產學研就重大發展領域進行長期合作,加速該國公私合作投入創新過程 Public-Private Partnerships (PPP),故以非營利性有限公司型態成立科學技術創新策略中心(Strategic Centres for Science, Technology and Innovation, SHOKs)。
SHOKs的計畫經費主要由芬蘭技術處(Tekes)提供補助,惟政府補助比例上限:最高上限75%,必要時Tekes可減少補助以符合上述比例。2008年到2014年用於補助研究計畫金額總和為5.45億歐元。
SHOKs科研計畫成果智財權歸屬及運用規定概述如下:
一、既有智慧財產權歸屬及運用:
1.參與者共同執行研究計畫不影響其既有智慧財產權之歸屬。
2.參與者之既有智慧財產權,若屬其他共同參與者執行計畫有必要者,應依無償或FRAND原則對其他共同執行研究計畫之參與者進行授權。
3.與執行計畫目的無關之既有智慧財產權使用,應另行協商授權事宜。
二、計畫成果智慧財產權歸屬:
1.歸屬於產出成果之一方,但如成果是多方參與者共同產出,原則上共有,但可另約定僅歸屬一方。
2.非SHOKs股東對研發成果產出有重大貢獻者,該研發成果亦可歸屬於該非SHOKs股東。
三、計畫成果智慧財產權之運用:
1.參與者為研究機構者,應向欲運用其研發成果之企業參與者進行移轉或授權時,收取相當於市場價格的補償金。
2.研究計畫參與者得無償取得相同及全球範圍之成果使用權,但除研究機構外不得再授權。
本文為「經濟部產業技術司科技專案成果」
德國消費者組織聯盟(Federation of German Consumer Organisations , 以下簡稱VZBV)針對臉書(Facebook)的”find friends”功能向該公司發出警告信。臉書的”Find friends”功能為使用者先在該社群網站上輸入自己的email後,再選擇其與朋友的聯繫管道,如yahoo信箱、skype等。臉書將儲存使用者所上傳的聯絡人資訊,並用以協助使用者尋找朋友,或者透過居住地、學校、工作場所等搜尋要件,協助使用者找尋好友。然而,在臉書未有任何修正的情況下,VZBV向柏林地方法院控告臉書並獲得勝訴,之後臉書向上訴法院提起上訴,但於2014年01月24日遭到駁回。2016年01月14日,德國聯邦法院維持下級審法院判決,裁判臉書的” Find friends”功能牴觸德國隱私權保護與消費者保護之法律。 (一)德國聯邦資料保護法(Bundesdatenschutzgesetz,BDSG) 法院認為該項功能違反德國聯邦資料保護法,蓋因臉書未能在收集或利用使用者以及非使用者的資料前,事先取得其同意。此外,臉書的契約條款中亦未提供使用者適當程度的通知,讓使用者知道他們的資料將會被如何使用。 (二)德國不正競爭防制法(Gesetz gegen den unlauteren Wettbewerb, UWG) 法院認為,臉書在利用使用者資料並且寄發廣告郵件給非臉書會員時誤導使用者,讓使用者以為這個功能是受到限制的,亦即使用者誤認僅有其臉書上的朋友才在搜尋範圍之內。然而,臉書實際上更寄發邀請廣告郵件給其他非臉書的使用者。由於德國不正競爭防制法第五條第一項規定,採取引人錯誤的交易行為,其行為構成不正當。此外,該法第七條亦規定,具訊息之廣告,其掩飾或隱匿委任傳送此訊息之發送人的身分, 即被視為不合理之煩擾。又以不合理之方式來煩擾市場參與者之交易行為,不得為之。因此,其被認定構成德國不正競爭防制法第五條”引人錯誤的交易行為”以及第七條"不合理之煩擾"。 本案從2010年開始直至聯邦法院裁判結果出爐前,”find friends”功能已有修正,然而VZBV認為這些修正並不足夠。在2016年的這份裁判出爐後,facebook將如何修正及調整商業模式,以符合德國法律之規定值得持續關注。此外,許多社群網站如LinkedIn亦有類似功能,該裁判結果對於這些網站的商業運作,將造成如何的影響亦應持續追蹤。
英國修正公布施行「2017年智慧財產權不正當威脅法」,使智慧財產權之法規範更具明確性英國智慧財產局於2017年10月1日修正公布施行智慧財產權不正當威脅法(IP Unjustified Threats Act 2017),使智慧財產權之法規範更具明確及一致性,並協助企業免於昂貴的訴訟費用。 所謂智慧財產權之不正當威脅(unjustified threat)係指無智慧財產權、智慧財產權已過期或無效、或雖未實際發生智慧財產權之侵權事實,卻對他人提起侵權之法律行為或措施,該行為耗費成本、引起市場混亂,致使客戶出走並造成企業合法販售商品或服務之業務停滯,並扼殺智慧財產創新之本質,破壞市場衡平。 因涉及智慧財產侵權之法規範複雜、不明確或不一致,且當有侵權之虞尚未進入司法審判程序前其紛爭難以解決,致使智慧財產權人(特別是擁有智慧財產權之中小企業)不願意實施其權利。因此,修正公布施行智慧財產權不正當威脅法將有助於智慧財產權人或第三人知悉何種行為算是威脅,提供明確之規範框架,鼓勵企業建立商談(talk first)文化,使爭議雙方可交換訊息以解決紛爭,而非興訟。並使企業或個人在智慧財產權爭議中取得公平合理的地位,以保護客戶及供應鏈(包括零售商或供應商),避免企業或個人因不正當威脅、惡性之商業競爭,而遭受損害。再者,智慧財產權之不正當威脅法適用於專利權、商標權及設計權,使智慧財產權法複雜之規範更趨明確且一致。
日本發布利用AI時的安全威脅、風險調查報告書,呼籲企業留意利用AI服務時可能造成資料外洩之風險日本獨立行政法人情報處理推進機構於2024年7月4日發布利用AI時的安全威脅、風險調查報告書。 隨著生成式AI的登場,日常生活以及執行業務上,利用AI的機會逐漸增加。另一方面,濫用或誤用AI等行為,可能造成網路攻擊、意外事件與資料外洩事件的發生。然而,利用AI時可能的潛在威脅或風險,尚未有充分的對應與討論。 本調查將AI區分為分辨式AI與生成式AI兩種類型,並對任職於企業、組織中的職員實施問卷調查,以掌握企業、組織於利用兩種類型之AI時,對於資料外洩風險的實際考量,並彙整如下: 1、已導入AI服務或預計導入AI服務的受調查者中,有61%的受調查者認為利用分辨式AI時,可能會導致營業秘密等資料外洩。顯示企業、組織已意識到利用分辨式AI可能帶來的資料外洩風險。 2、已導入AI利用或預計導入AI利用的受調查者中,有57%的受調查者認為錯誤利用生成式AI,或誤將資料輸入生成式AI中,有導致資料外洩之可能性。顯示企業、組織已意識到利用生成式AI可能造成之資料外洩風險。 日本調查報告顯示,在已導入AI利用或預計導入AI利用的受調查者中,過半數的受調查者已意識到兩種類型的AI可能造成的資料外洩風險。已導入AI服務,或未來預計導入AI服務之我國企業,如欲強化AI資料的可追溯性、透明性及可驗證性,可參考資策會科法所創意智財中心所發布之重要數位資料治理暨管理制度規範;如欲避免使用AI時導致營業秘密資料外洩,則可參考資策會科法所創意智財中心所發布之營業秘密保護管理規範,以降低AI利用可能導致之營業秘密資料外洩風險。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議: (一)關於人工智慧及應用界定與發展 人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。 (二)未來對社會及政府利益及衝擊 人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。 目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。 在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。 (三)關於相關道德及法律風險管理課題 人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考: (1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。 (2)調適由人工智慧作決策行為時的歸責概念和機制。 有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。 針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。 人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。