解析中國江蘇省「企業知識產權管理規範」之內容與對台商的影響

刊登期別
第20卷,第11期,2008年11月
 

※ 解析中國江蘇省「企業知識產權管理規範」之內容與對台商的影響, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2935&no=0&tp=1 (最後瀏覽日:2026/03/23)
引註此篇文章
你可能還會想看
歐盟金融監管機構共同建議強化現行之永續金融揭露規則

為促進綠色轉型並提高對投資人之保護,歐洲銀行監理機關(European Banking Authority, EBA)、歐洲保險與職業年金監理機關(European Insurance and Occupational Pensions Authority, EIOPA)及歐洲證券與市場監理機關(European Securities and Market Authority, ESMA)於2024年6月18日針對永續金融揭露規則(Sustainable Finance Disclosure Regulation),向歐盟執委會(European Commission)發布共同意見。 現行的永續金融揭露規則於2019年制定並於2021年生效,其目的在提高金融產品服務的 ESG 揭露透明度和標準化,透過要求金融市場參與者提供可靠且可比較的 ESG 資料,使投資者能夠做出更明智的投資決策,引導投資人重視環境與永續議題。現行的永續金融揭露規則係以「商品標籤」之方式揭露金融商品資訊,但共同意見中認為此標籤制度並未提供明確標準或門檻,使投資人無法充分了解為何特定商品具有永續性,導致漂綠(greenwashing)及相關投資風險。 因此,本次共同意見向執委會建議,執委會應建立投資人易於理解且具有客觀標準之金融商品類別,解決上述資訊落差疑慮。共同意見建議,金融機構可採用「永續(sustainable)」與「轉型(transition)」兩項金融商品類別。以下簡介共同意見就兩項金融商品類別提供之建議: 一、永續類別 永續類別係指金融商品投資於已達到環境或社會永續門檻之經濟活動或資產。共同意見提及,執委會或可考慮將永續類別再拆分為環境永續類別與社會永續類別;但若拆分兩項類別,可能必須注意目前環境永續與社會永續兩項類別得參考之指標發展程度不一,未來在訂定門檻時如何確認相關指標需進一步討論。 二、轉型類別 轉型類別係指金融商品投資於尚未達到環境或社會永續門檻,但未來將逐步提高其永續性以達到永續類別門檻之經濟活動或資產。共同意見建議,執委會於訂定轉型類別之門檻時,應參考經濟活動分類標準之關鍵績效指標、轉型計畫、商品減碳路徑及減緩主要不利影響之措施等因素。 目前執委會正評估利害關係人意見及永續金融揭露規則實施經驗,作為改善歐盟永續金融制度之依據,因此共同意見亦建議,執委會應先進行消費者調查,再著手後續規則修訂,方能達到制度優化之成果,保障投資人權益及永續發展。

落實完善數位資料管理機制,有助於降低AI歧視及資料外洩風險

落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).

德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南

  德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現

歐洲議會針對3D列印技術所涉及的智財權及相關法律責任提出意見

  「數位轉型監視站(the Digital Transformation Monitor)」為歐盟執委會中小企業執行機構(Executive Agency for Small and Medium-sized Enterprise, EASME)所資助執行的一項計畫,主要是研析數位轉型發展與知識並提供政策提案,3D列印技術為其計畫知識庫鎖定的項目之一。去(2017)年11月23日歐洲議會法律事務委員會(the European Parliament’s Committee on Legal Affairs)公告一份關於3D列印技術之智財權及法律責任之意見書(Working Document on three-dimensional printing, a challenge in the fields of intellectual property rights and civil liability,下簡稱意見書),提出3D列印技術對產業界所帶來的影響,範圍包括:醫療、航太、以及汽車零組件、玩具、電器等產品製造,甚至涉及古文物之修復、考古等。   該意見書點出智財權與法律責任兩個關鍵議題,前者係考量當物品透過數位設計,其後續將可能產生無數次的調修或應用,為了從根本上預防仿製造成侵權,應發展合法之3D列印服務,確保作者得到公平報酬;後者則基於3D列印技術包括數位及實體兩層面,個人可透過線上編修檔案,而開啟了大眾參與創新之生產形式,然而當有人被3D列印產品侵害權益,該由產品製造者、3D列印機生產者、或者是軟體創作者負起責任?   此意見書雖未提出具體解決方式,但試著勾勒出可能的緩解方案,包括:建置全球資料庫以使具著作權保護的3D物品受到重製管制;規範合法之私製3D物品次數以避免違法重製;施行3D列印稅以補償智財所有權人之損失等。儘管3D列印技術未使一般傳統製造業造成巨大影響,但其所衍生的相關問題,未來是否需要專為3D列印技術制定新歐盟法規或者在現行法規之下特例規範,仍值得持續觀察。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」

TOP