從Google提起的「FITBEING」商標異議案談JPO對於近似與著名商標的判斷

日本特許廳(Japan Patent Office,後稱JPO)於2024年6月駁回Google公司對來自中國大陸的深▲せん▼小▲ちぇ▼科技有限公司(後稱中國大陸公司)有關「FITBEING」文字商標的註冊異議,認為中國大陸公司的「FITBEING」商標與Google公司的「FITBIT」商標在外觀、發音等方面存在顯著差異,因此不會對消費者造成混淆。

中國大陸公司於2023年1月在日本申請註冊「FITBEING」文字商標,指定於第14類的「鐘錶和計時儀器」等商品。Google公司於同年8月對該商標提出異議,主張「FITBEING」商標與其於2018年註冊的「FITBIT」文字商標,在拼寫及發音上相似,並有致相關消費者混淆誤認之可能,違反日本商標法第4條第1項第11款、第15款。此外,Google公司亦表示其「FITBIT」文字商標已為Google穿戴設備的「周知」標識,應具有排他性。

JPO指出,儘管「FITBEING」和「FITBIT」在拼寫上皆以「FITB」開頭,惟二者字尾的「ING」和「IT」無論在文字外觀、字母數量還是音節數量上的差異皆具顯著差異。此外,JPO亦評估「FITBIT」商標是否為「周知」商標。依日本商標法第4條第1項第10款規定,與消費者廣泛認識其為表示他人營業商品或服務之商標相同或近似,使用於同一或類似之商品或服務者,不得註冊商標。本案中,JPO指出Google公司所提供的證據,包括各國市場調查報告和廣告宣傳資料,卻未能提交足夠的日本市場調查資料,以證明「FITBIT」在日本已被相關消費者廣泛認識為Google穿戴式設備的「周知」標識。因此,基於雙方商標近似及周知程度,JPO駁回了Google公司的異議,認定兩商標無導致消費者混淆誤認之虞。

由本案可知,日本JPO對商標近似性的判斷標準與我國大致相同,均會考量商標的外觀、發音及涵義的差異。企業在設計創作商標時,應檢視商標的外觀、讀音以及涵義,避免欲註冊商標與現有商標近似,以避免無法取得註冊商標。此外,若欲主張「周知商標」,企業應確保提交充分的當地市場調查資料證明商標的知名程度,包括當地市場的消費者調查結果及銷售資料等,當面臨爭議時,用以主張商標的著名程度。

本案目前經JPO駁回Google公司的異議後,尚無進一步的訴願或訴訟公開資訊。

本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。

本文同步刊登於TIPS網站(https://www.tips.org.tw/

相關連結
你可能會想參加
※ 從Google提起的「FITBEING」商標異議案談JPO對於近似與著名商標的判斷, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9231&no=64&tp=1 (最後瀏覽日:2025/11/26)
引註此篇文章
你可能還會想看
歐盟公布2016年歐洲創新計分板報告

  為確保各會員國能有效執行歐盟科研架構計畫(Horizon 2020),歐盟執委會每年針對各會員國整體創新能力及研發活動進行評估,據此研提創新競爭力排名,並定期公布歐盟創新計分板報告(European Innovation Scoreboard, EIS)。而觀諸最新公布2016歐盟創新計分板報告((European Innovation Scoreboard 2016),可歸納以下三項要點: (一) 2016歐盟創新研發能力成長趨緩   由於研發資金政策之限制以及英國脫歐影響下,相較於去年(2015)歐盟創新計分板報告(European Innovation Scoreboard 2015, EIS)之統計,今年度(2016)歐盟整體之創新研發能力成長趨緩。 (二) 2016創新研發先驅仍為瑞典,部分國家仍有大幅度之成長   而今年之歐盟創新計分板報告在整體創新競爭力排名上,第一名仍為瑞典,其次則為丹麥,芬蘭,德國和荷蘭。而相較於去年之排名,拉脫維亞、馬爾他、立陶宛、荷蘭等國家則有顯著之成長。 (三) 在個別指標項目中,會員國創新表現亦有不同   此外,獨立創新指標項目中,各會員國亦有不同之創新表現,例如:在「創新人力資源」及「學術研究項目」中,由瑞典榮獲最具競爭力之國家;而在「創新財政環境」項目中第一名為芬蘭;「創新私人投資」、「創新網絡」及「中小企業創新」等三大項目中,則分別由德國、比利時及愛爾蘭奪冠。

通用人工智慧的透明揭露標準--歐盟通用人工智慧模型實踐準則「透明度 (Transparency)」章

通用人工智慧的透明揭露標準--歐盟通用人工智慧模型實踐準則「透明度 (Transparency)」章 資訊工業策進會科技法律研究所 2025年08月06日 歐盟人工智慧辦公室(The European AI Office,以下簡稱AIO) 於2025年7月10日提出《人工智慧法案》(AI Act, 以下簡稱AIA法案)關於通用型人工智慧實作的準則[1] (Code of Practice for General-Purpose AI Models,以下簡稱「GPAI實踐準則」),並於其中「透明度 (Transparency)」章節[2],針對歐盟AIA法案第53條第1項(a)、(b)款要求GPAI模型的提供者必須準備並提供給下游的系統整合者 (integrator) 或部署者 (deployer) 足夠的資訊的義務,提出模型文件(Model Documentation)標準與格式,協助GPAI模型提供者制定並更新。 壹、事件摘要 歐盟為確保GPAI模型提供者遵循其AI法案下的義務,並使AIO能夠評估選擇依賴本守則以展現其AI法案義務合規性的通用人工智慧模型提供者之合規情況,提出GPAI實踐準則。當GPAI模型提供者有意將其模型整合至其AI系統的提供者(以下稱「下游提供者」)及應向AIO提供相關資訊,其應依透明度章節要求措施(詳下述)提出符合內容、項目要求的模型文件,並予公開揭露且確保已記錄資訊的品質、安全性及完整性 (integrity)。 由於GPAI模型提供者在AI價值鏈 (AI value chain) 中具有特殊角色和責任,其所提供的模型可能構成一系列下游AI系統的基礎,這些系統通常由需要充分了解模型及其能力的下游提供者提供,以便將此類模型整合至其產品中並履行其AIA法案下的義務。而相關資訊的提供目的,同時也在於讓AIO及國家主管機關履行其AI法案職責,特別是高風險AI的評估。 AIO指出完整填寫與定期更新模型文件,是履行AIA法案第53條義務的關鍵步驟。GPAI模型提供者應建立適當的內部程序,確保資訊的準確性、時效性及安全性。模型文件所含資訊的相關變更,包括同一模型的更新版本,同時保留模型文件的先前版本,期間至模型投放市場後10年結束。 貳、重點說明 一、制定並更新模型文件(措施1.1) 透明度 (Transparency)章節提供模型文件的標準表格,做為GPAI實踐準則透明度章節的核心工具,協助GPAI模型提供者有系統性的整理並提供AIA法案所要求的各項資訊。表格設計考量了不同利害關係人的資訊需求,確保在保護商業機密的同時,滿足監管透明度的要求。 前揭記錄資訊依其應提供對象不同,各欄位已有標示區分該欄資訊係用於AI辦公室 (AIO)、國家主管機關 (NCAs) 或下游提供者 (DPs)者。適用於下游提供者的資訊,GPAI模型提供者應主動提供(公開揭露),其他則於被請求時始須提供(予AIO或NCAs)。 除基本的文件最後更新日期與版本資訊外,應提供的資訊分為八大項,內容應包括: (一)、一般資訊General information 1.模型提供者法律名稱(Legal name) 2.模型名稱(Model name):模型的唯一識別碼(例如 Llama 3.1-405B),包括模型集合的識別碼(如適用),以及模型文件涵蓋之相關模型公開版本的名稱清單。 3.模型真實性(Model authenticity):提供明確的資訊例如安全雜湊或URL端點,來幫助使用者確認這個模型的來源 (Provenance)、是否真實性未被更動 (Authenticity)。 4.首次發布日(Release date)與首次投放歐盟市場的日期(Union market release date)。 5.模型依賴(Model dependencies):若模型是對一個或多個先前投放市場的GPAI模型進行修改或微調的結果,須列出該等模型的名稱(及相關版本,如有多個版本投放市場)。 (二)、模型屬性(Model properties) 1.Model architecture 模型架構:模型架構的一般描述,例如轉換器架構 (transformer architecture)。 2.Design specifications of the model 模型設計規格:模型主要設計規格的一般描述,包括理由及所作假設。 3.輸出/入的模式與其最大值(maximum size):說明係文字、影像、音訊或視訊模式與其最大的輸出/入的大小。 4.模型總參數量(model size)與其範圍(Parameter range):提供模模型參數總數,記錄至少兩個有效數字,例如 7.3*10^10 參數,並勾選參數(大小)所在範圍的選項,例如:☐>1T。 (三)、發佈途徑與授權方式(Methods of distribution and licenses) 1.發佈途徑Distribution channels:列舉在歐盟市場上使用模型的採用法,包括API、軟體套裝或開源倉庫。 2.授權條款License:附上授權條款鏈結或在要求時提供副本;說明授權類型如: 開放授權、限制性授權、專有授權;列出尚有提供哪些相關資源(如訓練資料、程式碼)與其存取方式、使用授權。 (四)、模型的使用(Use) 1.可接受的使用政策Acceptable Use Policy:附上可接受使用政策連結或副本或註明無政策。 2.預期用途或限制用途Intended uses:例如生產力提升、翻譯、創意內容生成、資料分析、資料視覺化、程式設計協助、排程、客戶支援、各種自然語言任務等或限制及/或禁止的用途。 3.可整合AI系統之類型Type and nature of AI systems:例如可能包括自主系統、對話助理、決策支援系統、創意AI系統、預測系統、網路安全、監控或人機協作。 4.模型整合技術方式Technical means for integration:例如使用說明、基礎設施、工具)的一般描述。 5.所需軟硬體資源Required hardware與software:使用模型所需任何軟硬體(包括版本)的描述,若不適用則填入「NA」。 (五)、訓練過程(Training process) 1.訓練過程設計規格(Design specifications of the training process):訓練過程所涉主要步驟或階段的一般描述,包括訓練方法論及技術、主要設計選擇、所作假設及模型設計最佳化目標,以及不同參數的相關性(如適用)。例如:「模型在人類偏好資料集上進行10個輪次的後訓練,以使模型與人類價值觀一致,並使其在回應使用者提示時更有用」。 2.設計決策理由(Decision rationale):如何及為何在模型訓練中做出關鍵設計選擇的描述。 (六)、用於訓練、測試及驗證的資料資訊(Information on the data used for training, testing, and validation) 1.資料類型樣態Data type/modality:勾選樣態包括文字、影像、音訊、視訊或說明有其他模態。 2.資料來源Data provenance:勾選來源包括網路爬蟲、從第三方取得的私人非公開資料集、使用者資料、公開資料集、透過其他方式收集的資料、非公開合成(Synthetic )資料等。 3.資料取得與選取方式(How data was obtained):取得及選擇訓練、測試及驗證資料使用方法的描述,包括用於註釋資料的方法及資源,以及用於生成合成資料的模型及方法。從第三方取得的資料,如果權利取得方式未在訓練資料公開摘要中披露,應描述該方式。 4.資料點數量Number of data points:說明訓練、測試及驗證資料的大小(資料點數量),連同資料點單位的定義(例如代幣或文件、影像、視訊小時或幀)。 5.資料範疇與特性(Scope and characteristics):指訓練、測試及驗證資料範圍及主要特徵的一般描述,如領域(例如醫療保健、科學、法律等)、地理(例如全球、限於特定區域等)、語言、模式涵蓋範圍。 6.資料清理處理方法(Data curation methodologies):指將獲取的資料轉換為模型訓練、測試及驗證資料所涉及的資料處理一般描述,如清理(例如過濾不相關內容如廣告)、資料擴增。 7.不當資料檢測措施(Measures for unsuitability):在資料獲取或處理中實施的任何方法描述(如有),以偵測考慮模型預期用途的不適當資料源,包括但不限於非法內容、兒童性虐待材料 (CSAM)、非同意親密影像 (NCII),以及導致非法處理的個人資料。 8.可識別偏誤檢測措施(Measures to detect identifiable biases):描述所採取的偵測與矯正訓練資料存在偏誤的方法。 (七)、訓練期間的計算資源(Computational resources (during training)) 1.訓練時間(Training time):所測量期間及其時間的描述。 2.訓練使用的計算量(Amount of computation used for training):說明訓練使用的測量或估計計算量,以運算表示並記錄至其數量級(例如 10^24 浮點運算)。 3.測量方法論(Measurement methodology):描述用於測量或估計訓練使用計算量的方法。 (八)、訓練及推論的能源消耗(Energy consumption (during training and inference)) 1.訓練耗能(Amount of energy used for training)及其計量方法:說明訓練使用的測量或估計能源量,以百萬瓦時表示(例如 1.0x10^2 百萬瓦時)。若模型能源消耗未知,可基於所使用計算資源的資訊估計能源消耗。若因缺乏計算或硬體提供者的關鍵資訊而無法估計訓練使用能源量,提供者應披露所缺乏的資訊類型。 2.推論運算耗能的計算基準 (Benchmarked amount of computation used for inference1)及其方法:以浮點運算表示方式(例如 5.1x10^17 浮點運算)說明推論運算的基準計算量,並提供計算任務描述(例如生成100000個代幣Token)及用於測量或估計的硬體(例如 64個Nvidia A100)。 二、提供GPAI模型相關資訊(措施1.2) 通用人工智慧模型投放市場時,應透過其網站或若無網站則透過其他適當方式,公開揭露聯絡資訊,供AIO及下游提供者請求取得模型文件中所含的相關資訊或其他必要資訊,以其最新形式提供所請求的資訊。 於下游提供者請求時,GPAI模型提供者應向下游提供者提供最新模型文件中適用於下游提供者的資訊,在不影響智慧財產權及機密商業的前提下,對使其充分了解GPAI模型的能力及限制,並使該等下游提供者能夠遵循其AIA法案義務。資訊應在合理時間內提供,除特殊情況外不得超過收到請求後14日。且該資訊的部分內容可能也需要以摘要形式,作為GPAI模型提供者根據AIA法案第53條第1項(d)款必須公開提供的訓練內容摘要 (training content summary) 的一部分。 三、確保資訊品質、完整性及安全性(措施1.3) GPAI模型提供者應確保資訊的品質及完整性獲得控制,並保留控制證據以供證明遵循AIA法案,且防止證據被非預期的變更 (unintended alterations)。在制定、更新及控制資訊及記錄的品質與安全性時,宜遵循既定協議 (established protocols) 及技術標準 (technical standards)。 參、事件評析 一、所要求之資訊完整、格式標準清楚 歐盟AGPAI實踐準則」的「透明度 (Transparency)」提供模型文件的標準表格,做為GPAI實踐準則透明度章節的核心工具,從名稱、屬性、功能等最基本的模型資料,到所需軟硬體、使用政策、散佈管道、訓練資料來源、演算法設計,甚至運算與能源消秏等,構面完整且均有欄位說明,而且部分欄位直接提供選項供勾選,對於GPAI模型提供者提供了簡明容易的AIA法案資訊要求合規做法。 二、表格設計考量不同利害關係人的資訊需求 GPAI實踐準則透明度章節雖然主要目的是為GPAI模型提供者對由需要充分了解模型及其能力的下游提供者提供資訊,以便其在產品履行AIA法案下的義務。但相關資訊的提供目的,同時也在於讓AIO及國家主管機關履行其AI法案職責,特別是高風險AI的評估。因此,表格的資訊標示區分該欄資訊係用於AI辦公室 (AIO)、國家主管機關 (NCAs) 或下游提供者 (DPs)者,例如模型的訓練、資料清理處理方法、不當內容的檢測、測試及驗證的資料來源、訓練與運算的能秏、就多屬AIO、NCAs有要求時始須提供的資料,無須主動公開也兼顧及GPAI模型提供者的商業機密保護。 三、配套要求公開並確保資訊品質 該準則除要求GPAI模型提供者應記錄模型文件,並要求於網站等適當地,公開提供下游提供者請求的最新的資訊。而且應在不影響智慧財產權及機密商業的前提下,提供其他對使其充分了解GPAI模型的能力及限制的資訊。同時,為確保資訊的品質及完整性獲得控制,該準則亦明示不僅應落實且應保留證據,以防止資訊被非預期的變更。 四、以透明機制落實我國AI基本法草案的原則 我國日前已由國科會公告人工智慧基本草案,草案揭示「隱私保護與資料治理」、「妥善保護個人資料隱私」、「資安與安全 」、「透明與可解釋 」、「公平與不歧視」、「問責」原則。GPAI實踐準則透明度章節,已提供一個重要的啟示—透過AI風險評測機制,即可推動GPAI模型資訊的揭露,對相關資訊包括訓練資料來源、不當內容防止採取做一定程度的揭露要求。 透過相關資訊揭露的要求,即可一定程度促使AI開發提供者評估認知風險,同時採取降低訓練資料、生成結果侵權或不正確的措施。即便在各領域作用法尚未能建立落實配套要求,透過通過評測的正面效益,運用AI風險評測機制的資訊提供要求,前揭草案揭示的隱私、著作、安全、問責等原則,將可以立即可獲得一定程度的實質落實,緩解各界對於AI侵權、安全性的疑慮。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]The European AI Office, The General-Purpose AI Code of Practice, https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai 。(最後閱覽日:2025/07/30) [2]The European AI Office, Code of Practice for General-Purpose AI Models–Transparency Chapter, https://ec.europa.eu/newsroom/dae/redirection/document/118120 。(最後閱覽日:2025/07/30)

中國大陸國務院印發關於實施《促進科技成果轉化法》之規定

  中國大陸於2015年8月29日修改了其《促進科技成果轉化法》,為了該法的實施,中國大陸國務院於今年2月17日的常務會議中,即發表了其對於鼓勵研究機構及大專院校之科技研發成果運用的相關措施;而針對這些措施,中國大陸國務院於同月26日制定了相關的具體規定,並在3月2日時發布,並行文於各相關機關。   該規定分作16點,主要分三個大方向,包括促進研究機構及大專院校的科技研發成果轉移於民間企業、鼓勵科技研發人員發展創新技術以及創業活動,與科技研發環境的營造等等。   具體而言,其主要措施包括允許研發機構得自主決定其科技研發成果的運用,原則上不需要向政府申請核准或報備、其運用後的收入不需繳交國庫,得全部留於研發機構內,用於對研究人員之獎勵及機構內科技研發之用、其並對該收入用於對研究人員獎勵之比例下限作出明文規定、允許國立研發機構及大專院校之研究人員在一定條件下得保留原職位在一定期間內至民間企業兼職,或進行創業活動,以從事科技研發成果的運用,以及對研發機構的考核標準應納入對機構之科技研發成果及運用的評鑑等等。

機器人產品監管法制研析

機器人產品監管法制研析 資訊工業策進會科技法律研究所 2021年03月25日   台灣為全球ICT產品主要生產國之一,在產業鏈占有一席之地,有關機器人本體製造、國外產品、零組件、系統應用代工或代理商已超過百家,由機器人產品帶動之經濟效益預計將影響製造業整體產值,從而在安全標準、使用規範及責任歸屬上,有必要釐清現行法律規範,並同時審酌如何與國際規範接軌,而有需要進一步規範之處。   機器人依據其使用目的之不同,就現有之機器人產品分類而言,大致可分為「工業型機器人」(Industrial Robots)及「服務型機器人」(Service Robots)兩種。兩者之區分方式通常以國際機器人聯合會(International Federation of Robotics, IFR)之定義為主。「工業型機器人」在各種危險、需大量勞力或精密的工廠,皆可使用產業機器人取代人類,目前主要應用於汽車、面板、晶圓等各種製造業廠房;「服務型機器人」範圍較廣,具有移動性、無限制、多樣性等特性,有別於工業機器人侷限於工廠內使用,服務型機器人種類多樣,應用範圍廣泛,且需具備對環境的感測、辨識能力,以自行決定行動的智慧化功能。而另一面也逐漸受到國際間討論的,是智慧機器人(機器人具有接近強人工智慧的機能[1])相關之倫理、責任歸屬及損害賠償配套措施,而這部分所觀察之法律議題與上述既有之機器人產品之法規發展方向略有不同,因此本研析也將討論相關規範及國際關注焦點[2]。 壹、事件摘要   我國在機器人產品監管法規上仍依循傳統產品標準檢驗之路徑,且相關規範以工業機器人為主,為避免我國廠商因其他國家之產品監管法規之差異而阻礙其貿易流通,機器人產品監管架構實有必要與國際同步,並確保監管程序及標準能與技術發展保持一致。標準與規則的建立是促成機器人領域發展的重要因素,其中歐盟對於機器人標準化之發展在全球扮演關鍵之角色,而歐洲為我國貿易之重要市場,且其產品之CE認證屬於強制性產品檢驗,而於中國、美國採自願性認證(未經認證仍可銷售)有所不同。   故本研究首就商品檢驗、資料保護、勞工安全及產品責任等層面,對我國機器人產品之相關法令進行盤點,並選定歐盟機器人領域相關指令進行研析,對我國相關各界而言,或宜以該等規範或標準為標竿或參考,帶動台灣機器人產業向世界發展。 一、我國法規現況   目前針對機器人產品之法令散見於各法規之中,除了工業用機器人針對職業安全、危害預防有特定規範之外,並無(其他)機器人特別規範,相關規範盤點如下表,並就各類別說明如下: 表 1 :我國機器人相關規範 分類 細類別 規範 內容 商品檢驗、 產品安全 商品檢驗、 電磁相容性 《商品檢驗法》、《商品型式認可管理辦法》 商品安全管理制度。 頻譜 《電信法》、《電波監理業務管理辦法》 無線電頻率指配及設備規範。 國家標準 CNS 14490-1 B8013-1 CNS 14490-2 B8013-2 工業機器人安全性國家標準。 國際標準 工業機器人 ISO 10218-1 ISO 10218-2 ISO 9283 ISO 10218-1--規範工業機器人製造商適用的安全要求。ISO 10218-2--規範工業機器人系統整合適用的安全要求。 ISO 9283--提供工業用機器人操作之性能與測試標準與方法。 個人護理機器人 ISO 13482 個人護理機器人之調和安全標準,其安全性和可靠性的評估依據。 資料保護 個人資料 《個人資料保護法》 規範針對個人資料進行蒐集、處理、利用的單位,都應該取得當事人同意或依法進行。 勞工安全 職業安全 (工業機器人) 《職業安全衛生管理辦法》、「事業單位實施協作機器人安全評估報告參考手冊」 雇主對工業用機器人應於每日作業前依規定實施檢點。 使用協同作業機器人時實施安全評估,並製作安全評估報告,確保勞工作業安全。 危害預防 (工業機器人) 《工業用機器人危害預防標準》、「機器人危害預防手冊」 預防工業用機器人造成之危害。 產品責任 責任歸屬 《民法》、《消費者保護法》 機器人造成相關損害,所應負之契約及侵權責任。 鼓勵促進 投資抵減 《產業創新條例》、《公司或有限合夥事業投資智慧機械或第五代行動通訊系統抵減辦法》 企業投資於自行使用全新智慧機械,或導入5G行動通訊系統相關設備或技術一定額度,得抵減營利事業所得稅。 資料來源:本研究整理 二、歐盟機器人法制規範與發展   歐盟為了避免各成員國間產品監管法規之差異阻礙貿易流通,故歐盟採行後市場監督工作為核心之產品安全規範體系,並透過調和指令來調和產品安全法規,建立歐盟境內一致性之產品安全規範體系,以下整理出歐盟與機器人相關之規範、內容。 表 2 :歐盟機器人相關規範 分類 細類別 規範 內容 商品檢驗、 產品安全 商品檢驗通用規範 《新法律架構規範》(Regulation EC No.765/2008 )、《新法律架構決議》(Decision No. 768/2008/EC) 包括商品檢驗之一般性規定、認證、歐盟市場監督與進入市場之管制、CE 標識、符合歐盟財政安排之活動等相關規範。 機械 《機械指令》(Directive 2006/42/EC[3]) 推動機械產品之自由移動,並保證歐盟勞工及人員享有高度保護。原則上,該項指令僅適用於第一次進入歐盟市場之機械產品。 電磁波 《電磁相容性指令》(Directive 2014/30/EU[4]) 為保證所有電機電子產品可正常運行,不被其他產品釋放出的電磁干擾,亦不會釋放可能干擾其他產品正常運行之電磁。 無線電 《無線電設備指令》(Directive 2014/53/EU) 確保無線電設備符合歐盟安全及衛生要求,包括市場監管機制,特別要求製造商、進口商及配銷商應有之追溯責任。 資料保護 個人資料保護 《一般個人資料保護規則》(GDPR[5]) 內容主要涵蓋資料當事人的權利、資料控制者與處理者的義務、個資跨境傳輸、政府的監理體制、救濟措施等。 勞工安全 職業安全 《工人工作過程中的健康和安全水平指令》(89/391/EEC) 鑑於工作事故和職業病的發生率高,雇主須採取或改進預防措施,以保障工人的安全和健康並確保更高的保護水準;及告知工人安全和健康的風險並降低或消除這些風險所需的措施。 產品責任 責任歸屬 《一般產品安全指令》(Directive 2001/95/EC)[6]、 《產品責任指令》(Council Directive 85/374/EEC[7]) 規定產品一般性要求、製造及銷售業者的責任。 資料來源:本研究整理 貳、重點說明   觀察我國及歐盟現行有關機器人之規範大致可分四類,商品檢驗、資料保護、勞工安全及產品責任。   在商品檢驗之規範方面,主要係為促使商品符合安全、衛生、環保及其他技術法規或標準,為保護消費者權益,國家辦理各類商品之檢驗以維護產品安全;而資料保護則是在以大量資料之分析為基礎的人工智慧發展浪潮下,個人資料保護議題面臨挑戰,國家試圖在創新發展及隱私保護上進行衡平規範;勞工安全方面則是由於機器人可能因使用不當造成勞工工作災害,實需要讓勞工使用符合機械安全標準的工業用機器人,以預防發生產業之切、割、捲、夾、被撞等類型職業災害(近年也有針對服務型機器人之工安標準討論,但尚未有具體規範);最後在產品責任部分,目前多依循既有契約、侵權等民事規範處理,但當機器人自主決定所致損害時,因機器人決策形成過程所涉及之軟硬體、資料、資料連網服務等相當龐雜,難以(快速)釐清與歸責,有待進一步規範並填補損害。依據規範類別,對比我國與歐盟之主要差別如下表: 表 3 :歐盟與我國機器人規範之主要差別 歐盟 我國 商品檢驗 主要以「產品功能」對應其檢驗流程。 設有「自我宣告」之簡易流程,並開放認可之實驗室檢驗。 主要以「品項」對應其檢驗流程,須先進行「品目查詢」。 主管機關介入度較高。 資料保護 規定較具體細緻,跨境傳輸、自動化決策、被遺忘權及資料可攜有具體規定。 未針對人工智慧應用有特殊規定。 未規範自動化決策、被遺忘權及資料可攜。 勞工安全 依循既有工安規範。 工業機器人之工安規範依循國際標準。 工業機器人之工安規範依循國際標準(但未完全一致)。 產品責任 主要採「嚴格責任」,仍有少數免責事由。 針對智慧機器人應用之民事責任有進行相關檢討及修法分析。 採民法、消保法雙軌制,消保法採無過失責任(無法完全免責)。 資料來源:本研究整理   就歐盟針對機器人之監管法規架構,及與機器人相關產品指令之規範內容與主要義務,檢視對應我國之相關法規與規定後發現,事實上我國關於機器人商品檢驗之規範方向與歐盟大致相似,主要差異在於資料保護方面,因歐盟GDPR之規範較新且較為細緻,存有許多我國個資法尚未規範之處,而我國也尚未針對智慧機器人之產品責任規範。我國與歐盟關於機器人規範之整體比較,請參照下表: 表 4 :歐盟與我國機器人規範之比較 分類 歐盟規範內容 我國規範 商品檢驗 產品認證、評鑑程序 法源依據為新法律架構規範、新法律架構決議。 產品認證部分--(accreditation)一般性規定、認證、市場監督與進入市場之管制、CE 標識。 →多數商品可透過「自我宣告」等較簡易之方式進入市場。 《商品檢驗法》第5條:商品檢驗執行之方式,分為逐批檢驗、監視查驗、驗證登錄及符合性聲明四種,依照不同種類而有不同之分類及檢驗方式。à部分產品政府高度介入 《商品型式認可管理辦法》第6條第1項第1款規定:「一、一般型式試驗:電磁相容性型式試驗,應檢具相關技術文件及足夠測試所需之樣品,向標準檢驗局認可之指定試驗室辦理;其他型式試驗,應檢具相關技術文件及足夠測試所需之樣品,向檢驗機關或標準檢驗局認可之指定試驗室辦理。但大型或系統複雜商品,得向標準檢驗局申請指定場所測試。」 評鑑程序的部分—規範各種技術工具之定義、設計標準、符合性評鑑主體之通知、通知過程之條款、符合性評鑑之程序、防衛機制、經濟營運者(economic operators)之責任及商品追蹤性等規定。 機械 法源依據為機械指令,當產品進入市場--應符合一定要件、程序(如:健康和安全規範、黏貼CE標誌等要求) 職業安全衛生法以及商品檢驗法規定,我國未符合安全標準或未通過檢驗之機械產品,不得產製運出廠場或輸入。 產品標準之法源依據為機械指令。 職業安全衛生法第7條。 市場監督之法源依據為機械指令。 職業安全衛生法第7條、第8條、第9條,以及機械設備器具監督管理辦法中,規範產品監督及市場查驗之細節。 電子電氣設備電磁相容性之基本要求 法源依據為電磁相容性指令。 《商品型式認可管理辦法》第6條第1項第1款--電磁相容性型式試驗,應檢具相關技術文件及足夠測試所需之樣品,向標準檢驗局認可之指定試驗室辦理 無線電終端設備之基本要求 法源依據為無線電設備指令 電信法第42條第2項、電信終端設備審驗辦法 資料保護 開發設計 《一般個人資料保護規則》:事前進行「個人資料保護影響評估」 以及可能造成之風險與資料管理者所採取之保護措施、安全措施(強調事前)。 施行細則第12條2項3款規範個人資料風險評估及管理。 蒐集、感測 《一般個人資料保護規則》:個人資料範疇--明文涵蓋網路識別碼、位置資訊。 特定目的:有規定「為達成公共利益之目的、科學或歷史研究目的或統計目的所為之進階處理,不應視為不符合原始目的」之例外。 去識別化之方式:歐盟強調不可逆。 跨境傳輸:原則禁止,例外允許。當未取得認證或適足性,外國廠商無法將歐盟境內所蒐集到的個資,傳輸回位於本國之伺服器。 個人資料範疇:我國較多正面表列項目,無規定者則依靠解釋。(第2條第1款、第6條)位置資訊、網路識別碼等是否屬於個資,我國並未列舉,實務上迭有爭議。 特定目的:皆須有特定目的方可為之。 去識別化之方式:個人資料保護法施行細則第17條,並未強調不可逆。 跨境傳輸:原則允許,例外禁止。(第21條) 處理、資料分類 《一般個人資料保護規則》:資料處理--需符合一定之規範(未區分公務及非公務機關)。 資料處理:需符合一定規範,並特別區分公務及非公務機關。(第15、19條) 分析與驅動傳輸 《一般個人資料保護規則》: 自動化決策--強調「透明處理原則」,針對「個人化自動決策」賦予用戶請求解釋、拒絕適用的權利。 被遺忘權--應考量現行可行之科技技術及費用,選擇適當之措施,包括刪除所有與其個資之連結。 資料可攜權--資料主體應有權接收其提供予控管者之資料,並有權將之傳輸給其他控管者。 自動化決策:無規定。 被遺忘權:規定模糊,容有解釋空間。 資料可攜權:可透過間接解釋之方式達成。 後續衍生的偏見、歧視等問題 《人工智慧倫理準則》目前為企業自主使用,無強制性。 科技部《人工智慧科研發展指引》目前以科研人員為適用對象。(目前請科技部AI研究中心計畫、中心Capstone計畫、研究計畫人員填寫自評表) 產品責任 產品責任之義務範圍 法源依據為《一般產品安全指令》、《產品責任指令》。 生產者--應僅將安全產品投入市場,向消費者提供評估和預防風險的資訊。 經銷商--監督產品進入市場的安全性,相關適當因應措施。 消保法第7條第1項:企業經營者應確保該商品或服務,符合當時科技或專業水準可合理期待之安全性。 消保法第10條:危險產品之回收和要求採取適當因應措施。 產品責任之責任範圍 法源依據為《一般產品安全指令》、《產品責任指令》。 嚴格責任(strict liability)--消費者不需要證明製造商之過失,只需要證明損害是由產品造成即可。(製造商例外仍可自證免責,產品責任指令第7條) 民法第191條之1第1項:推定過失責任,為舉證責任倒置的設計。 消保法第7條第1項:企業經營者能證明其無過失者,法院得減輕其賠償責任。採無過失責任,無免責條款。 產品責任之連帶賠償責任 法源依據為《一般產品安全指令》、《產品責任指令》。 兩個以上的生產者(包含製造、經銷、進口商等),應對同一損害共同承擔責任時。 消保法第7條第3項--企業經營者商品不符當時科技或專業水準之安全性、危害消費者,致生損害於消費者或第三人時。 消保法第8條--從事經銷之企業經營者。 消保法第9條--輸入商品之企業經營者。 資料來源:本研究整理 參、事件評析   我國目前法律規範主要針對「工業型機器人」為主,而未來也應逐漸擴及至「服務型機器人」,並對「智慧機器人」相關議題有所討論,且可能宜進一步區分其風險高低而有不同規範,例如區分一般風險較低的家庭服務、居家照護機器人進行一般之商品安全及責任規範;而對於高度風險之機器人,除應有基本操作與風險排除規範外,更應避免使用錯誤造成危害。同時考慮機器人的運作,必須讓主管機關可以追蹤、回溯所有設計、製造、販售、所有權人與使用人,藉以釐清責任歸屬,並要求符合相對應的安全規範管制要求,以尋求更好的預防與處置管制措施。因此,針對我國機器人相關之規範初步發現及建議如下: 一、商品檢驗規範尚待明確:目前我國對於機器人之相關規範及標準大多集中於商品檢驗與勞工安全兩類,且以工業型機器人為主要規範標的;鑒於服務型機器人之發展,許多標榜為「機器人」之產品快速增加,而其對應之商品檢驗品項與標準不甚明確,造成業者與消費者之疑義。同時,國際間開始針對部分服務型機器人提出相關標準,此部分也應參酌國際趨勢,考量進行滾動式更新或調整,同時可透過公協會或平台使業者知悉規範趨勢。 二、考量業者需求彈性調整資料保護規範:由於智慧機器人奠基於大量資料驅動與人工智慧技術,而我國現有個人資料保護規範尚未有對應於人工智慧技術之彈性規範,且與國際間相關規範(例如:GDPR)有部分無法對應之處。因此,在具體應用上產生遵法成本過高、資料流通受限等問題。故在資料保護之規範上,除考量新興技術之應用外,也應考量國外相關規範之域外效力,儘快取得適足性認定,而有助於我國業者拓展國外市場。 三、逐步研訂或調整與智慧機器人之相關規範:由於目前具有高自主性之智慧機器人在市場尚未普及,相關產品責任仍回歸適用既有各類規範(例如:民法、消費者保護法等)。但國外已開始針對機器人之倫理、責任歸屬等問題,積極展開研究與佈署,並討論是否既有規範可能產生之不足之處,而有修正既有規範與研訂專門法規之討論。而智慧機器人隨著其自主性越高可能產生不可預見之風險,而可能與現行規範有所扞格。因此,未來主管機關應參酌國外相關研究與規範,並逐步建置可以追蹤、回溯所有設計、製造、販售、所有權人與使用人,藉以釐清責任歸屬,並符合相對應的安全規範管制要求,並尋求相應之風險預防與處置管制措施。 [1] 人工智慧可有三層次定義:第一層次是「弱人工智慧」或「狹隘人工智慧」,希望電腦能解決某個需要高度智力才能解決的問題,不要求它跟人類一樣有全面智慧解決各式各樣不同的問題;第二個層次是「強人工智慧」或「泛人工智慧」:要求電腦的智慧需要更全面廣泛,需要有推理、學習、規劃、語言溝通、知覺等能力,擁有這些能力的電腦才有可能展現出跟人類並駕齊驅的智慧;第三個層次是John Searle提出的「強人工智慧假說」(Strong AI Hypothesis),這個層次人工智慧需要擁有跟人類一樣的「心靈」,需要認知自我並如同人類般思考。 [2] 當前機器人已衍生許多產品且應用場景各有不同,就不同種類、不同場景之機器人有不同規範程度之需求。在工業機器人方面,過去因為工安考量,法規強調機器與人類之間分開作業、人機間之安全距離等,但近年來因為人機協力操作之設計與發展備受關注,逐漸產生出人機近距離協力合作之安全標準;而在於服務機器人議題當中,基本上服務機器人被設計為允許與人類共同存在同一空間中,且產品種類多樣化(無人機、搬運機器人、掃地機器人、照護機器人等皆屬之),但也因當前安全標準及相關之規範缺乏,各國對於產品審驗之寬嚴不一,亦成為機器人發展與市場流通之障礙;而在智慧機器人規範方面,倫理、責任歸屬及配套措施則是目前國際討論之焦點。 [3] Directive 2006/42/EC of the European parliament and of the council, EUR-LEX, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:02006L0042-20190726 (last visited Mar. 5, 2021). [4] Directive 2014/30/EU of the European Parliament and of the Council, EUR-LEX, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A32014L0030, (last visited Mar. 15, 2021). [5] Regulation (EU) 2016/679 of the European parliament and of the council, EUR-LEX, https://eur-lex.europa.eu/legal-content/EN/ALL/?uri=celex%3A32016R0679 (last visited Mar. 15, 2021). [6] Directive 2001/95/EC of the European parliament and of the council, EUR-LEX, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:02001L0095-20100101 (last visited Mar. 4, 2021). [7] Council Directive 85/374/EEC, EUR-LEX, https://eur-lex.europa.eu/legal-content/en/TXT/?uri=CELEX:31985L0374 (last visited Mar. 5, 2021).

TOP