新加坡科技與研究局(Agency for Science, Technology and Research)於2017年7月26日提出未來工廠(Toward the factories of the future)概念及相關研究方向,自動化(Automation)、機器人(robotics)、先進電腦輔助設計(advanced computer-aided design)、感測和診斷技術(sensing and diagnostic technologies)將徹底改變現代工廠,可製造的產品範圍廣泛,從微型車乃至於飛機皆可生產。積層製造(Additive Manufacturing),又稱3D列印(3D printing),可使用單一的高科技生產線來創造許多不同的產品項目,而不需要傳統大規模生產的設計限制和成本,伴隨未來高效能電腦和感測技術之進步,積層製造速度也會隨之加快。而智慧工廠(smart factories)將與物聯網(IOT)、雲端計算(cloud computing)、先進機器人(advanced robotics)、即時分析(real-time analytics)與機器學習(machine learning)等技術與積層製造技術結合,將大為提升生產速度及產量。
為加速及改善積層製造的製程,最重要的方法之一,是使用材料物理學的基本原理來模擬製造過程,而近期更引進跨學科之研究,「模擬」最終產品化學成分和機械性能的微觀結構。因積層製造是一個複雜又困難的過程,透過變化既有規則之模擬(Game-Changing simulations),若建立完成模型且模擬成功,將成為積層製造的殺手級技術。在未來的五到十年,我們將看到更多的零件從積層製造技術生產出來,而且這種技術有機會成為未來工廠的生產基礎。由於現行材料及製造流程與機器必須配合一致,些許的差異皆會生產出不同品質之產品,故未來積層製造工廠的結果穩定重現性(repeatability)和標準化(standardization),將是產品商業化的主要障礙與挑戰。
本文為「經濟部產業技術司科技專案成果」
德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。 諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。 綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。
韓國公共行政安全部制定《公部門AI倫理原則》草案,以提升民眾對公部門應用AI之信任2025年11月,韓國公共行政安全部(Ministry of the Interior and Safety,下稱MOIS)於新聞稿宣布制定《公部門AI倫理原則》草案,追求公益、公平無歧視、透明、問責明確、安全性及隱私保護等六大核心價值,旨於促進創新、提升民眾對公部門應用AI之信任。 一、適用範圍 《公部門AI倫理原則》草案適用對象為公部門,包含中央、地方政府機關等,其性質為不具強制力的指引。 二、檢核表分三階段漸進式管理 《公部門AI倫理原則》草案依AI 應用的複雜程度分為三階段漸進式管理,設計最高達90個細項的檢核表(Checklist),惟目前尚未公開詳細內容: (一)第一階段:基礎導入(AI基礎應用) 針對技術引進的初步活用階段,共包含31個檢核項目,旨在建立基礎的倫理合規防線。 (二)第二階段:進階應用(AI決策支援) 適用於AI提供資料分析與建議以輔助人員進行行政決策的情境。隨著影響力提升,檢核項目擴增至74個,強化透明性與責任性的審查。 (三)第三階段:深度融合(AI自主決策) 針對AI具備高度自主決策權的高風險情境(如自主化服務或複雜判斷),執行最嚴密的倫理檢查,共達90個檢核項目。 建議公部門依檢核表自行檢查,並依結果建立「調整與回饋」的循環機制,以因應不斷變化的技術環境。 MOIS部長指出,未來將進一步蒐集學界意見以完備倫理原則,並開發一套AI倫理原則之培訓課程,確保一線能落實執行這90個檢核項目,保障人權與基本權利。 由於目前未見90個檢核項目內容,值得持續追蹤後續進展。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
解析中國江蘇省「企業知識產權管理規範」之內容與對台商的影響 英國推出《藥品和醫療器材法》草案英國政府於2020年2月13日發布了《藥品和醫療器材法》(Medicines and Medical Devices Bill)草案。根據英國國民保健署(NHS)的聲明,新法草案修改以及補充了現有的英國藥品、醫療器材、臨床試驗監管框架,確保英國能夠開發具有開拓性的醫療技術。 本次草案的提出原因之一為英國計劃自2020年12月31日起退出歐盟,過去英國藥品與醫療器材法律乃援引歐盟相關指令與規則(例如:歐盟醫療器材法規,Medical Device Regulation, (EU) 2017/745),一旦脫歐過渡期結束,英國將無法再透過1972年《歐洲共同體法》(ECA 1972)援用歐盟的規定來規範與更新藥品、醫療器材與臨床試驗法律。 本次法案另有幾項新增重點: 醫療器材主管機關英國藥品和醫療產品監管署(Medicines and Healthcare Products Regulatory Agency)成為唯一有權簽發執行通知書(enforcement notices)的機關。 草案第23條明確指出哪些違反英國《2002年醫療器材法規》(Medical Devices Regulations 2002)的行為可能導致刑事犯罪。 草案第26條針對違反英國《2002年醫療器材法規》的人有新的民事制裁(civil sanctions)規範框架。例如在本法草案附表1(Schedule 1)中提及將賦予內閣大臣權力,得對違反《2002年醫療器材法規》之個人處以罰款(monetary penalty)。 草案第34條賦予內閣大臣權力向公眾分享有關醫療器材的資訊,例如受個資法保護或屬商業機密的醫療器材安全的資訊。 目前法案草案在國會二讀階段。