歐盟最近宣布其新設立的歐洲研究院(European Research Council, ERC),自2月底開始運作。ERC是依據歐盟第七期研發綱要計畫(Seventh Framework Programme for Research and Technological Development, FP7)下之子計畫-”理念”計畫("Ideas" programme)所設立。2006年底通過的歐盟第七期研發綱要計畫,揭示歐盟在2007至2013年間的科技研發政策、研發投入的重點領域與經費挹注情形。與PF6相較,PF7經費大幅成長,每年平均成長至少達40%,單是2013年一年,經費成長更高達75%。
ERC是第一個泛歐的經費補助機構,設立目的是為了贊助前瞻科學領域的研究活動。在設立第一年,歐盟挹注於ERC的經費即高達3億歐元,在FP7計畫的七年期間,ERC總計取得7.5 billion的經費。隨著ERC的設立,歐盟首度有了專為前瞻性研究量身訂作的經費補助運作機制,亦即交由歐洲科學界菁英,也就是由22位聲譽卓著的科學界菁英所組成的科學諮詢會(Scientific Council)自主管理,官僚系統不得對之表示意見。 歐盟希望藉由ERC的設立,促使科學界得以對最具有原創性的科學想法深入研究,以突破當前之知識界線,進而協助解決歐盟在社會、環境、經濟面所面臨之挑戰。
本文為「經濟部產業技術司科技專案成果」
荷蘭資料保護局(Data Protection Authority, DPA)歷經長達七個月的調查,於2013年11月28日發布新聞稿,聲明Google違反該國資料保護法,因其未適當告知用戶他們蒐集了什麼資料、對資料做了些什麼事。 DPA主席Jacob Kohnstamm表示:「Google在未經你我同意的情形下,對我們的個人資料編織了一張無形的網,而這是違法的。」調查報告援引了Google執行長Eric Schmidt在2010年一場訪談中所說的話:「你不用鍵入任何字,我們知道你正在什麼地方、去過什麼地方,甚至或多或少知道你在想些什麼。」。 調查顯示Google為了展示個人化的廣告及提供個人化的服務,而將不同服務取得的個人資料加以合併,如搜尋記錄、所在位置及觀看過的影片等。然而,從用戶的觀點來看,這些服務係基於全然不同的目的,而Google亦未事先提供用戶同意或拒絕的選項。依照荷蘭資料保護法的規定,Google合併個人資料前,應經當事人明示同意,而該同意無法藉由概括(隱私)服務條款取得。針對DPA的聲明,Google回應他們已經提供用戶詳細資訊,完全符合荷蘭法律。 DPA表示將通知Google出席聽證會,就調查結果進行討論,並決定是否對Google採取強制措施。但是,從Google的回應看來,他們不太可能在聽證過後改變心意。以先前Google街景車透過Wi-fi無線網路蒐集資料的案例為鑑,Google(市值達3500億美元)若繼續拒絕遵循,將有可能面臨高達1佰萬歐元的罰鍰。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
WTO歐盟生技產品案解析(下) 美國網紅控訴前員工竊取其成功經營社群媒體之機密計算公式美國J. Cathell公司於2022年12月21日以《保護營業秘密法》(Defend Trade Secrets Act of 2016)、《喬治亞州營業秘密法》(The Georgia Trade Secrets Act)控訴前員工Martin侵害其營業秘密「設計社群媒體發文及服裝策畫計算公式」。 J. Cathell公司是知名引領潮流、設計與旅遊的網紅兼部落客Jess Cathell所成立,其個別社群媒體皆有上千、萬名之追蹤者。其所經營之J. Cathell公司透過Instagram(@j.cathell)與網站(www.jcathell.com)提供前往特定目的地旅遊而設計的服裝,亦融合特定風格與特殊活動,同時提供販售連結。另有經營Facebook(J. Cathell Facebook)、Pinterest(J. Cathell Pinterest)、Like To Know It(下簡稱LTK)(J. Cathell LTK)等社群媒體。該服裝與風格設計是由Jess Cathell針對其客群研析出專屬、非公開之計算公式(營業秘密)所得出之結果。 被告Martin自2020年9月起任職於J. Cathell公司、擔任Jess Cathell的助理。Jess Cathell主張其提供Martin專屬計算公式之使用權限,並投注大量成本教導如何運用計算公式詮釋服裝策畫結果、設計社群媒體發文內容。前述資訊對J. Cathell公司皆具有獨立之實際或潛在經濟價值、他人亦可因被揭露之資訊,或使用該資訊而獲利。 Jess Cathell主張僅有自己、Martin能接觸專屬計算公式,並運用該公式產出設計社群媒體發文及服裝策畫結果。Jess Cathell為了保密,不曾以紙本記錄留存專屬計算公式相關資訊;用於追蹤銷售與其他績效指標的系統,皆以帳號、密碼保護。而Martin知悉該密碼,且於Martin任職期間多有提醒前述資訊之秘密性,Martin針對這些資訊具有保密義務。 Jess Cathell於2022年4月左右,發現WEAR TO WANDER公司(下簡稱WTW公司)成立Instagram、Pinterest、Facebook、LTK等帳號與WTW公司網站,於前述社群媒體發文的格式及概念,與J. Cathell公司於社群媒體發布的內容幾乎相同,並於同年8月發現Martin是WTW公司的創立者。Jess Cathell主張因Martin、WTW公司不當使用其營業秘密「設計社群媒體發文及服裝策畫計算公式」,在短短11個月內,WTW公司的Instagram即獲得近9萬名追蹤者,造成J. Cathell公司之財務與競爭損害,遂於同年12月向法院提出營業秘密侵害訴訟。 本案為首件社群媒體經營產業相關之營業秘密訴訟案件,後續判定將值得關注。 本文同步刊登於TIPS網站(https://www.tips.org.tw)