何謂「工業4.1J(Japan Industry 4.1J)」?

  自德國「工業4.0」,開啟所謂第4次工業革命以來,各國政府皆相繼投入資源進行相關計畫,如美國之「先進製造夥伴計畫(Advanced Manufacturing Partnership,AMP)」中國大陸之「中國製造2024」,以及我國之「生產力4.0」等等。

  而日本不同於上述其他國家,日本版的工業4.0稱為「工業4.1J」,該計畫並非由國家來主導,而係由民間公司Virtual Engineering Community(VEC)及NTT Communications於2015年3月10日所啟動的一項實證實驗,旨在確認「工業4.1J」之各項技術要件,並且該項目成果非僅提供給VEC之會員,將對所有企業及公眾公開。而所謂的「4.1」表示安全級別比工業4.0更高一級,「 J」則表示源自於日本(Japan)。

  日本之「工業4.1J」的運行架構說明如述:首先,將會利用控制系統蒐集相關數據;第二,在雲端平台上記錄及累積數據資料;第三進行即時分析;最後則是透過專家進行事件檢測、分析故障原因並恢復生產、提出安全改善建議等等。

本文為「經濟部產業技術司科技專案成果」

※ 何謂「工業4.1J(Japan Industry 4.1J)」?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7288&no=64&tp=1 (最後瀏覽日:2026/01/29)
引註此篇文章
你可能還會想看
美國參議員提案規範物聯網設備之資安漏洞

  美國參議員2017年08月01日提案立法,要求提供給美國政府的物聯網網路連結設備,須符合產業資訊安全標準,同時規範設備供應商,提供之設備必須可持續更新,不得含有無法更改參數的設定與不得具有任何已知安全漏洞。兩黨皆有參與提案參議員,共和黨為Cory Gardner和Steve Daines,以及民主黨的Mark Warner和Ron Wyden。   由於物聯網連結數持續成長,與物聯網相連的裝置與感應器,預計在2020年會超過200億台裝置,相關裝置的資料蒐集與傳輸,同時影響消費者與產業。當這些裝置在出廠時若預設無法更改的參數,即預設固定程式無法更新,則該裝置連接物聯網時,會因裝置無法更新程式,而可能產生資安漏洞,進而影響物聯網上其它連結設備之安全性。   2016至今,物聯網相關設備已被惡意阻斷服務攻擊(DDOS)影響相關網站、伺服器以及網路基礎設施提供者。   Warner等4位參議員提出的〈2017年物聯網資安改進法〉(Internet of Things (IoT) Cybersecurity Improvement Act of 2017)草案,主要關注: 聯邦政府採購的物聯網相關設備,須可持續更新、符合產業標準、不含無法更改內建參數的設定、以及不含已知安全漏洞。 行政管理和預算局(Direct the Office of Management and Budget ,OMB),須發展可供替代網路級(network-level)資安設備以供限制性資料處理。 國土安全部的國家保護和計畫局(National Protection and Programs Directorate)須向提供連線設備予聯邦政府的承包商,發布整合性的資安漏洞揭露指導原則。 免除資安研究人員基於誠實信用研究時,所揭露與資安漏洞有關之法規責任。 要求所有執行機構清點所有連結物聯網的設備。

歐盟EDPB認為防範Cookie疲勞應確保資訊透明及簡化

歐盟資料保護委員會(European Data Protection Board, EDPB)於2023年12月13日回覆歐盟執行委員會(European Commission, EC)有關Cookie協議原則草案(Cookie Draft Pledge Principles)之諮詢。該草案旨在處理「Cookie疲勞」(Cookie fatigue)所造成的隱私權保護不周全之處。 在電子通訊隱私指令(ePrivacy Directive)以及GDPR規範下,由於現行同意機制複雜,造成用戶對Cookie感到疲勞,進而放棄主張隱私偏好。 為了避免「Cookie疲勞」,EDPB提出以下原則和建議,大致可以分為三點: 一、簡化Cookie不必要的資訊 1.基本運作所需之Cookie(essential cookies)無需用戶同意,故不必呈現於同意選項,以減少用戶需閱讀和理解的資訊。 2.關於接受或拒絕Cookie追蹤的後果,應以簡潔、清楚、易於選擇的方式呈現。 3.一旦用戶拒絕Cookie追蹤,一年內不得再次要求同意。 二、確保資訊透明 1.若網站或應用程式的內容涉及廣告時,應在用戶首次訪問時進行說明。 2.不僅是同意追蹤的Cookie,用於選擇廣告模式的Cookie,仍需單獨同意。 三、維持有效同意 1.應同時顯示「接受」和「拒絕」按鈕,提供用戶拒絕Cookie追蹤的選項。 2.在提供Cookie追蹤選項時,除了接受全部的廣告追蹤或付費服務外,應提供用戶另一種較不侵犯隱私的廣告形式。 3.鼓勵應用程式提前記錄用戶的Cookie偏好,但強調在用戶表達同意時必須謹慎處理,預先勾選的「同意」不構成有效同意。 EC表示,該草案目的在於簡化用戶對Cookie和個人化廣告選擇的管理,雖然為了避免Cookie疲勞而簡化資訊,仍應確保用戶對於同意Cookie追蹤,是自願、具體、知情且明確的同意。將於後續參考EDPB之建議,並與利害關係人進行討論後,制定相關法規。

日本內閣府召集研究小組 解決因AI帶來之智財問題

日本內閣府組成「AI時代的智慧財產權研討小組」,由東京大學副校長渡邊敏也作為主席於今(2023)年10月4日召開首次會議,為討論生成式AI(人工智慧)發展帶來的智慧財產權問題。討論主題包括法規範現況、在人類參與有限的情況下由生成式AI所產出之發明是否可以申請專利等,目標於年底前彙整、蒐集企業經營者待解決議題。亦將從其他法律的角度進行討論,例如:AI模仿商品形態是否亦受到日本《不正競爭防止法》之拘束;AI與專利之間的關係,依據日本《專利法》,專利權目前僅授予個人參與創造過程的發明,隨著AI技術的發展,預計會出現難以做出決策的情況,將討論諸如取得專利所須的人類參與程度等問題;以及擁有大量資料的權利持有者向AI開發者提供有償資料的優缺點。與會專家表示,希冀看到從鼓勵利用AI進行新創作和發明之角度出發。日本文化廳和其他相關組織亦同步討論AI生成的作品,若與現有之受著作權保護的作品相似時是否會侵害著作權之議題。 日本內閣府早先於今年5月公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理),我國行政院於今年8月31日正式揭示國科會擬定之「行政院及所屬機關(構)使用生成式AI參考指引」草案,我國經濟部智慧局亦規劃研擬就AI生成物是否享有著作權或專利權、訓練資料合理使用範圍、企業強化營業秘密保護等3大面向建立AI指引,國內外AI相關指引議題均值得持續追蹤瞭解。另,企業無論是擔憂AI技術成果外洩、不慎侵害他人智財權或智財成果被生成式AI侵害之虞等,因應數位化趨勢與數位證據保全而應強化相關管理措施,資策會科法所發布之《營業秘密保護管理規範》、《重要數位資料治理暨管理制度規範(EDGS)》協助企業檢視自身管理措施之符合性並促進有效的落實管理。 本文同步刊登於TIPS網(https://www.tips.org.tw)

世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧

世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。

TOP