2019年10月29日,德國聯邦經濟與能源部提出GAIA-X計畫(Project GAIA-X),蒐集德國聯邦政府、產業和科學界代表意見,與歐洲夥伴合作共創高性能、具競爭力、安全可信賴的歐洲聯合雲端資料基礎建設平台。GAIA-X計畫被視為歐洲開放、透明的雲端數位生態系統搖籃,用戶得以在可信任的環境中,提供整合安全的共享資料;透過雲端資料的跨國合作,為歐洲國家、企業和公民創造聯邦資訊共享環境、促進數位創新、建構全新商業模式。GAIA-X計畫將嚴格遵循資料保護、公開透明、真實性與可信賴性、數位主權(Digital Sovereignty)、自由市場與歐洲價值創造、系統模組化及互操作性(Modularity and Interoperability)、資料可用性等歐洲價值觀及原則。
GAIA-X計畫設定的目標包括:1.維護歐洲數位主權;2.減少對外國雲端供應鏈依賴;3.拓展歐洲雲端服務的國際市場;4.塑造創新數位生態系統。透過建立資料技術與數位經濟相關的基礎設施,將統一安全規格的雲端技術,落實在公共管理、衛生部門、企業和科研機構用戶與供應商間,形成開放數位資料共享的大平台。另外,GAIA-X計畫能進一步強化歐洲雲端服務供應商及歐洲商業模式的全球競爭力與規模,透過聯合雲端資料基礎建設,連接歐洲大小型企業、公部門、醫療及金融機構的伺服器,將全歐洲對於數位技術的多項投資串連在一起,積極發展AI人工智慧、智慧醫療、數位金融監管等新興產業,得以確保歐洲數位安全並提高雲端資料處理能力。
本文為「經濟部產業技術司科技專案成果」
繼2001年引起國內科技產業界關注的公平會處分飛利浦CD-R授權案、2004年7月28日智慧局依循專利法第76 條規定,做成CD-R技術之強制授權決定,准予國碩公司針對飛利浦公司五項專利權所提出的強制授權申請後,飛利浦與台灣光碟片廠的權利金拔河仍未停歇,近日飛利浦宣布,將推動全新的CD-R光碟片專利授權模式—Veeza,根據此一授權模式,每片CD-R光碟片的授權金降幅高達44%。 飛利浦認為Veeza有助於恢復產業競爭的公平性,台灣光碟片卻不這樣認為,首先台灣最主要的競爭對手印度MBI,因飛利浦在印度沒有專利權保護,當地生產的光碟片出貨並不用繳納權利金。另外大陸業者也不按照規定繳交權利金,故即使調降權利金,我國廠商仍認為一旦與飛利浦簽訂新契約,屆時反而更加綁手綁腳,更無法與印度與大陸廠商競爭,市場公平競爭性反而降低,故截至目前為止,並沒有任何一家台灣光碟片廠與飛利浦簽訂新契約。
資通安全法律案例宣導彙編 第5輯 歐洲專利局發布人工智慧與機器學習專利審查指南正式生效歐洲專利局(European Patent Office, 下稱EPO)於2018年11月1日發佈新版專利審查指南已正式生效。此次新版的焦點為Part G, Chapter II, 3.3.1關於人工智慧(Artificial Intelligence, AI)與機器學習(Machine Learning, ML)的可專利性審查細則。 在新版審查指南Part G, Chapter II, 3.3中指出數學方法本身為法定不予專利事項,然而人工智慧和機器學習是利用運算模型和演算法來進行分類、聚類、迴歸、降維等發明,例如:神經網路、遺傳演算法、支援向量機(Support Vector Machines, SVM)、K-Means演算法、核迴歸和判別分析,不論它們是否能夠藉由數據加以訓練,此類運算模型和演算法本身,因具有抽象的數學性質而不具專利適格性。 其中,EPO亦針對人工智慧和機器學習相關應用舉例下列特殊情形,說明可否具備發明技術特徵: (一)可能具技術性 在心臟監測儀器運用神經網路辨別異常心跳,此種技術為具有技術貢獻。 基於低階特徵(例如:影像邊緣、像素數值)的數位影像、影片、音頻或語言訊號分類,屬於分類演算法的技術應用。 (二)可能不具技術性 根據文字內容進行分類,本身不具技術目的,而僅是語言學的目的(T 1358/09) 對抽象數據或電信網路數據紀錄進行分類,但未說明所產生分類的技術用途,亦被認定本身不具技術目的,即使該分類演算法的數據價值高(例如:穩健性)(T 1784/06)。 在新版審查指南中亦指出,當分類方法用於技術目的,其產生之訓練集(training set)和訓練分類器(training the classifier)的步驟,則能被視為發明的技術特徵。 近年來,人工智慧技術的應用分佈在我們的生活中,無論是自駕車、新藥開發、語音辨識、醫療診斷等,隨著人工智慧和機器學習技術快速發展,新版的審查指南將為此技術訂定可專利性標準,EPO未來要如何評判人工智慧和機器學習相關技術,將可透過申請案之審查結果持續進行關注。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
歐盟第29條工作小組發布「自動化個人決策和分析指引」處理個人資料自動化決策與資料剖析風險問題歐盟第29條工作小組於2017年10月3日為因應歐盟一般資料保護規則(GDPR)第22條規定發布「自動化個人決策和分析指引」(Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679,2018年2月6日進一步修正,下稱指引),處理對個人資料自動化決策(automated decision-making)和個人檔案剖析(Profiling)的建立。 指引分為五個部分與最佳實踐建議,旨在幫助資料控制者(controller)合乎GDPR對個人資料自動化決策和分析的要求,內容包括下幾點:1.定義自動化決策和分析,以及GDPR對這些概念的處理方法;2.對GDPR第22條中關於自動化決策的具體規定;3.對自動決策和分析的一般規定;4.兒童和個人檔案剖析(Profiling)的建立;5.資料保護影響評估。 指引的主要內容包括: 個人檔案剖析(Profiling),意謂收集關於個人(或一群個人)的資料,並分析他們的特徵或行為模式,加以分類或分群,放入特定的類別或組中,和/或進行預測或評估(例如,他們執行任務的能力,興趣或可能的行為)。 禁止對個人資料完全自動化決策,包括有法律上法或相類重大影響的檔案剖析,但規則也有例外。應有措施保障資料主體的權利,自由和合法利益。 GDPR第22條第二項a之例外規定,(履行契約所必需的),自動化個人決策時,應該作狹義解釋。資料控制者必須能夠提出分析、自動化個人決策的必要性,同時考慮是否可以採取侵害隱私較少之方法。 工作小組澄清,關於在要求提供有關自動化決策所涉及的邏輯上有意義的資料時,控制者應以簡單的方法,告訴資料主體其背後的理由或依據的標準,而不得總是以自動化決策所使用算法進行複雜的解釋或者公開完整的算法為之。所提供的資料應該對資料當事人有意義。 對資料主體提供關於處理自動化決策上有關重要性和預期後果的資料,其意義在於必須提供關於該資料之用途或資料未來處理以及自動化決策如何影響資料主體的重要訊息。例如,在信用評等的情況下,應有權知道其資料處理的基礎,資料主體並能對其作出正確與否的決定,而不僅僅是關於決策本身的資料。 「法律效果」是指對某人的法律權利有影響,或者影響到個人法律關係或者其契約上權利。 工作組並未將GDPR前言71段視為絕對禁止純粹與兒童有關的自動決定,指出僅在某些情況下才有其適用(例如,保護兒童的福利)。 在基於自動化處理(包括分析)以及基於哪些決策產生法律效應或類似顯著效果的基礎上對個人方面進行系統和廣泛評估的情況下,進行資料保護影響評估並不局限於「單獨」自動化處理/決定。