自德國「工業4.0」,開啟所謂第4次工業革命以來,各國政府皆相繼投入資源進行相關計畫,如美國之「先進製造夥伴計畫(Advanced Manufacturing Partnership,AMP)」中國大陸之「中國製造2024」,以及我國之「生產力4.0」等等。
而日本不同於上述其他國家,日本版的工業4.0稱為「工業4.1J」,該計畫並非由國家來主導,而係由民間公司Virtual Engineering Community(VEC)及NTT Communications於2015年3月10日所啟動的一項實證實驗,旨在確認「工業4.1J」之各項技術要件,並且該項目成果非僅提供給VEC之會員,將對所有企業及公眾公開。而所謂的「4.1」表示安全級別比工業4.0更高一級,「 J」則表示源自於日本(Japan)。
日本之「工業4.1J」的運行架構說明如述:首先,將會利用控制系統蒐集相關數據;第二,在雲端平台上記錄及累積數據資料;第三進行即時分析;最後則是透過專家進行事件檢測、分析故障原因並恢復生產、提出安全改善建議等等。
本文為「經濟部產業技術司科技專案成果」
2024年2月,日本專利廳根據公開招募結果,公布將由一般社團法人發明推進協會執行令和6年度的「產業財產權人才培養協力事業」。 日本自2021年起開始推動「產業財產權人才培養協力事業」,至今年已邁入第4年,且自2024年起預計於南非共和國開設新的專利審查實務課程,以提升南非共和國專利審查官的必要能力。 「產業財產權人才培養協力事業」主要針對日本企業進行海外經濟投資及活動熱門的發展中國家(包含新興國家以及最低度開發國家LDC),提供積極性的人才培養支援,並以強化該國家能安定培養智慧財產相關權利取得與執行的實施人才為目的。在法制整備較為落後的最低度開發國家如柬埔寨,人才培養強化支援的範圍亦包含產業財產權制度的整備。人才培養的對象以智慧財產廳的職員、取締機關的職員以及民間的智慧財產關係業者為重點,透過提升其對於智慧財產權的能力,解決日本企業為在外國取得產業財產權的權利保護需要花費大量時間、日本企業的產業財產權在外國受到侵害的案件逐年增加等問題,以消除日本企業在外國進行經濟投資及活動時的巨大妨礙。 日本專利廳亦針對研修方針下列事項提出建議: 1、消除發展中國家審查延遲的對應方針 於研修中透過增加案例閱讀、資料尋找演習等的講義時間,提升尋找能力及判斷能力;並透過學習日本的IT系統、業務處理過程,提升系統面的支援能力。 2、提升發展中國家審查品質的方針 透過學習日本的基準、判斷手法提升審查、審判的品質;並透過學習日本的管理手法,提升審查品質管理能力。 3、仿冒品對策的對應方針 透過介紹以日本及各國事例為基礎的支援,加深對於仿冒品對策的理解;並透過增加與實施健全執法相關聯的講義時間,加深對於仿冒品對策的一般理解。 4、建構更有效果的研修方法的對應方針 透過設置課程全體的導師制度(mentor),提升研修效果的同時,有效活用「線上」及「實體」連續性的混合研修方法,並透過於實體研修中實施團體討論、在職訓練(OJT)、案件閱讀、模擬裁判(Mock Trial)等,提升實踐能力。 本文後續會持續留意日本「產業財產權人才培養協力事業」的發展,以掌握日本對於發展中國家支援的最新資訊。我國企業如未來預計於發展中國家進行經濟投資或活動時,亦應注意該國智慧財產權之程度,以評估相關風險。 本文同步刊登於TIPS網(https://www.tips.org.tw)
落實完善數位資料管理機制,有助於降低AI歧視及資料外洩風險落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).
5G汽車協會發布《道路使用者保護白皮書》5G汽車協會(5G Automotive Association, 5GAA)於2020年8月24日發布「弱勢道路使用者保護白皮書」(Vulnerable Road User Protection),點出目前道路交通安全對相關道路使用者保護不足,同時揭示未來車聯網(V2X)可提供整體用路人更安全之道路交通環境。 白皮書指出,道路安全是交通政策關鍵,應透過科技技術與政策制定,共同實現道路安全目標。而根據目前統計數據,弱勢道路使用者(Vulnerable Road User,以下簡稱VRU),包含:「行人」、「騎自行車者」、「騎電動車者」、「道路施工者」、「輪椅使用者」及「滑板或是單輪車使用者」,其占交通事故之傷亡比例最高,幾乎超過半數之死亡人數均為VRU,未來更可能因環境或與健康因素,使道路交通使用者數量不斷提升,對VRU之保護將成為未來各國交通之關鍵。 技術層面,則是車輛感測器偵測VRU、路側設備(Roadside Unit, RSU)、行動邊緣計算技術(Mobile Edge Computing, MEC)等,並進一步應用於車聯網下之不同案例情況:(1)高度風險區域:例如車輛進入行人密度極高的地區,透過感測器發出警訊,以即時警惕人車彼此存在,降低視線死角之事故發生率。(2)VRU與車輛透過裝置溝通:如車輛與VRU之間透過手機等設備傳輸相關資料並通訊。(3)車輛透過安全演算系統與VRU及各項設施交換訊息:此項涉及車聯網通訊應用下,車與車(V2V)和車與交通基礎設施(V2I)通訊,透過C-V2X PC5通訊技術軟體,使車輛、基礎設施與VRU之隨身電子設備之間得以進行通訊,降低事故碰撞發生。 綜上,未來應建立國際通用的車聯網之弱勢道路使用者保護標準,而非因區域而不同之標準,如目前美國汽車工程師協會之個人安全訊息標準(Personal Safety Messages, SAE PSM)及歐盟電信標準協會之弱勢道路使用者分布(Vulnerable Analysis Mapping , ETSI VAM),兩者在保護上即有所差異。VRU之保護服務是未來車聯網應用之關鍵與道路交通安全核心目標之一,相關系統與感測技術亦在不斷提升,未來更能融合感測器技術,並預測行人可能路徑,將全面提升道路安全。
金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。