對於智慧聯網(IoT)推動政策,英國主要係以科技策略委員會(Technology & Strategy Board)下設智慧聯網特別關注研究小組(IoT Special Interest Group, IoT SIG)為平台,討論智慧聯網(IoT)相關資訊及規劃推動政策。英國智慧聯網特別關注研究小組2013年5月公布「智慧聯網的挑戰與機會」(IoT Challenges and Opportunities - Final Report)報告,對於智慧聯網(IoT)服務的創新發展提出建議,包括應推動:(1)建立操作互通性(interoperability)的框架(2)以人為本的設計(People-centred design)(3)創造強健的智慧聯網(IoT)平台(4)頻譜使用模式的無線電技術等相關政策。
再者,英國智慧聯網特別關注研究小組在2月15日也發表「智慧聯網科際研究路徑圖」(A Roadmap for Interdisciplinary Research on the Internet of Things) 最後報告,內容包含四個子報告,分別對科技、文化創意及設計、經濟及商業、社會科學討論智慧聯網(IoT)未來研究的方向。在「社會、法律及道德子報告」(A Roadmap for Interdisciplinary Research on the Internet of Things: Social Science)中提及應注意的研究問題,包括:隱私及資料保護、自主選擇性(choice)、控制(control)、智慧型個人隨身裝置的社會議題、安全(security)
、所有權及智慧財產權、公眾安全及保護、資料保留(data retention)、行動的停止、過時資料的處理、以及巨量資料、納入公眾意見、服務品質等等。
並且,英國「社會、法律及道德子報告」中透過情境分析的方式,試圖將所提及之相關社會、法制及道德議題盧列出來,希望能在此基礎下進行更系統性的研究探討,以更廣泛含攝模式,嘗試從社會、法律及道德各層面,探究智慧聯網(IoT)相關重要議題。
本文為「經濟部產業技術司科技專案成果」
歐洲專利局(European Patent Office, 下稱EPO)於2018年11月1日發佈新版專利審查指南已正式生效。此次新版的焦點為Part G, Chapter II, 3.3.1關於人工智慧(Artificial Intelligence, AI)與機器學習(Machine Learning, ML)的可專利性審查細則。 在新版審查指南Part G, Chapter II, 3.3中指出數學方法本身為法定不予專利事項,然而人工智慧和機器學習是利用運算模型和演算法來進行分類、聚類、迴歸、降維等發明,例如:神經網路、遺傳演算法、支援向量機(Support Vector Machines, SVM)、K-Means演算法、核迴歸和判別分析,不論它們是否能夠藉由數據加以訓練,此類運算模型和演算法本身,因具有抽象的數學性質而不具專利適格性。 其中,EPO亦針對人工智慧和機器學習相關應用舉例下列特殊情形,說明可否具備發明技術特徵: (一)可能具技術性 在心臟監測儀器運用神經網路辨別異常心跳,此種技術為具有技術貢獻。 基於低階特徵(例如:影像邊緣、像素數值)的數位影像、影片、音頻或語言訊號分類,屬於分類演算法的技術應用。 (二)可能不具技術性 根據文字內容進行分類,本身不具技術目的,而僅是語言學的目的(T 1358/09) 對抽象數據或電信網路數據紀錄進行分類,但未說明所產生分類的技術用途,亦被認定本身不具技術目的,即使該分類演算法的數據價值高(例如:穩健性)(T 1784/06)。 在新版審查指南中亦指出,當分類方法用於技術目的,其產生之訓練集(training set)和訓練分類器(training the classifier)的步驟,則能被視為發明的技術特徵。 近年來,人工智慧技術的應用分佈在我們的生活中,無論是自駕車、新藥開發、語音辨識、醫療診斷等,隨著人工智慧和機器學習技術快速發展,新版的審查指南將為此技術訂定可專利性標準,EPO未來要如何評判人工智慧和機器學習相關技術,將可透過申請案之審查結果持續進行關注。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
日本公布資料信託功能認定指引ver1.0並進行相關實驗日本總務省及經濟產業省於2017年11月至2018年4月間召開6次「資料信託功能認定流程檢討會」(情報信託機能の認定スキームの在り方に関する検討会),檢討具備資料信託功能之「資料銀行」認定基準及模範條款等事項,於2018年6月公布「資料信託功能認定指引ver1.0」(情報信託機能の認定に係る指針ver1.0),以利實現個人資料流通並創造新服務型態。資料銀行係指基於與個人間資料利用契約,透過PDS(personal data store)等系統管理個人資料,根據個人指示或預先設定的條件,於判斷妥當性後向第三方提供資料之行業。目前指引內容包括︰(1)資料信託機能認定基準︰具體內容包括業者適格性、資訊安全原則、資訊安全具體基準、治理體制、業務內容等;(2)模範條款記載事項︰針對個人與資料銀行、資料銀行與資料提供者、資料銀行與接受資料提供者間關係,列出具體應記載事項;(3)資料信託機能認定流程。 作為日本總務省「資料信託功能運用推動計畫」(情報信託機能活用促進事業)一環,日立製作所、東京海上日動火災保險、日本郵局等於2018年9月10日發表將根據「資料信託功能認定指引ver1.0」,進行「資料銀行」個資管理、提供及運用等實驗,參與者分別扮演資料提供者、資料銀行和資料利用者三種角色,未來將會參考實驗結果,提出認定基準改善建議。
日本文部科學省發布2021年科學技術與創新白皮書,著眼於韌性社會願景與疫後對策的具體措施日本文部科學省於2021年6月8日公布「2021年科學技術與創新白皮書」(令和3年版科学技術・イノベーション白書),為文部省就政府所訂立之科技政策藍圖,所發布的年度報告書。本年度白皮書循往例,區分為第一部分與第二部分。第一部分著重同年3月發布之第6期科學技術與創新基本計畫(第6期科学技術・イノベーション基本計画)框架下,為達成Society 5.0之願景政府所規劃的一系列政策;第二部分則回顧去(2020)年,政府針對科技與創新創造所採取的各項對策。 本白皮書就韌性社會所需科研項目、強化研究能量的激勵措施等層面,提出以下具體方向: (1)推動社會數位化與零碳排放(脱炭素化) 為強化網路虛擬空間與現實社會間的資源共享與互動發展,虛擬空間之基礎技術方面,持續研發超級電腦、AI與量子電腦,利用所累積的資料運用於深度分析與模擬,並實現超高速計算與量子通訊。虛擬空間與現實社會結合之應用型技術研發方面,包含能輔助身體運作的外部機械、透過自駕車系統銜接高齡化社會交通需求、以及遠端遙控之機器人技術應用於高風險作業環境。推動零碳排放、強化防災能量等面向,則藉由綠色成長戰略、綠色創新基金等政策,發展核融合、次世代蓄電池、精準預測氣候變遷之系統等新興技術;運用AI模擬等強化地震與天災的預報精準度,提升社會應對大規模自然災害的韌性。 (2)「知識」的整合創造與利用,以用於解決各類社會議題 考量社會議題的解決,不僅在於前瞻性自然科學技術的研發,尚需同步理解人類社會的多樣性。同時,人文社會科學近年來,亦多有採用自然科學的研究方法。因之,白皮書主張兩方的跨域知識結合,應用上強調須以人為本來解決各類社會議題。 (3)強化基礎研究能量 應著手改善出於個人經濟因素,放棄申請博士後課程的現況,創造年輕研究者敢於投入自身有興趣且具挑戰性研究課題之環境。基此,白皮書提出設置10兆日圓規模的大學基金,提升約15,000名博士後課程學生的待遇,並推動「創造發展性研究支援事業」(創発的研究支援事業)措施,穩定提供10年期間的研究資金。 (4)COVID-19疫情對策 持續投入研發治療方法(如檢驗抗病毒藥物Favipiravir用於治療COVID-19的效果與安全性)、疫苗與相關醫療器材,並推動以遠距方式進行研究活動,導入機器人技術等來發展自動化實驗、於虛擬空間內進行實驗等;另一方面,有效的防疫對策(如避免人潮密集、密切接觸、密閉空間的「三密」),根基於COVID-19的最新科研成果,因此需讓科學性、客觀性資訊透過適切的管道(如日本科學未來館網站),以淺顯易懂的形式向大眾宣達。
因應使用「生成式AI(Generative AI)」工具的營業秘密管理強化建議2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)