科技與創新委員會(Commission of Technology & Innovation,以下簡稱CTI)係瑞士重要之創新推進機構,成立於1943年,2011年新修正之研究與創新促進法實施後,CTI正式從經濟部聯邦職業教育及科技局(Federal Office for Professional Education and Technology, OEPT)獨立出來,成為一個具決策權的獨立機關,直接隸屬於聯邦經濟事務部(Federal Department of Economic Affairs, FDEA)。
CTI為擴大高科技創業並創造研發成果商品化之效益推動創業家計畫。該計畫主要係由CTI出資成立的「創業實驗室」(Venture Lab)來執行。創業實驗室針對大學生及創業家推出了一系列創業推廣及訓練課程,從單日的工作坊、五日之創業實務密集課程到在大學開設的創業學期課程,每一個訓練課程都有專家評審,針對創新構想及商業模式給予參與課程者具有建設性的建議。

資料來源:Venture Lab網站
圖 Venturelab 創業課程
本文為「經濟部產業技術司科技專案成果」
加拿大隱私專員辦公室(Office of the Privacy Commissioner of Canada, OPC)於2019年1月11日就其聯邦廣播通訊法(Radiocommunication Act, RA)與電信法(Telecommunications Act, TA)提出隱私權與個資保護建議。現行加拿大聯邦廣播通訊法針對個資保護並無特別立法,而其電信法第七條雖有提及要注重個資隱私,卻無實質責任規範。惟廣播與電信公司蒐集、處理及利用個資時,如何確保當事人之個資隱私受到保護,就此加拿大隱私專員辦公室提出三點修法建議。 一、電信法及廣播通訊法應包含哪些隱私安全與資訊安全之概念? 基於人民將大量敏感個資委託給電信業者,以獲得互聯網、電話及電視通信便利服務。惟個人資訊不但具有龐大商業價值,對於執法機關和情報安全機構也具有相當利益。基於以下因素,加拿大隱私專員辦公室建議制定電信業者更新之安全機制與公共安全義務。 保護措施 現行法規之保護措施應該適用於現代通訊工具,所有設備儲存與傳輸之敏感性個資都應受到保護,而非僅限於被使用之個人資訊。 門檻提升 數據蒐集之法律標準需加強,提升隱私保護。 保存期限要求 除法律特別規定之保存期限外,相關通訊數據保存應於最短時間內刪除,通盤完整保留數據為不必要之風險。 強制協助命令 強制監督 關於電信商既已存在之標準,監視與保留通訊之數據,依據政府要求提供者,政府須解釋其合理性。 透明度 除加拿大電信商提供年度報告,政府單位依據合法授權來請求加拿大客戶數據之情況下,應有相關報告以示公平。 二、政府管理政策與產業治理之有效性衡平 鑑於資訊技術與商業模式蒐集數據為不透明,普通消費者根本無從得知個人資訊是如何被取得及利用分享,當事人較難根據資訊來識別問題,亦難區別是否當事人是否為有效性之同意,故加拿大隱私專員辦公室認為其應該有權審核或檢查電信業者使用技術範圍內之事務,以確保現實情況與隱私法規範保護一致。故應使加拿大隱私專員辦公室能與其他聯邦監管機構(Canadian Radio-television and Telecommunications Commission, CRTC加拿大廣播電視和電信委員會與加拿大競爭局)共享資訊,並授予加拿大隱私專員辦公司發布命令與實施行政罰鍰之權力,且允許其進行積極之合規性審查。 三、立法設計中應包含消費者保護、權利行使及可及性 加拿大人民享受數位經濟帶來之好處,同時希望個人資訊之利用為無疑慮地,人民相信政府及立法機關會做好保護措施。惟目前加拿大之隱私立法仍為相當寬鬆,近期相關數據洩漏事件亦已證實電信公司無法善盡管理負責任,透明度與問責制度皆不足,相關消費者保護與權利行使皆須更完善,並需要更多資金進行改善。 加拿大個人資料保護和電子文件法(Personal Information Protection and Electronic Documents Act, PIPEDA)個資隱私法下,公司或組織於所提供服務相關時,可獲取、使用及共享資訊,但在提供服務之資訊外,尚有許多資訊共享於其他目的。電信公司蒐集日常生活資訊,針對敏感性個資,隱私法規範為明確的,但若個人數據非敏感性,則會帶來許多隱含空間,當事人是否為有意義之同意?加拿大隱私專員辦公室認為他們應該要有更多法律權力,透過執法確保電信數據生態系統之信任,並整合聯邦與省之法規。政府與業者創新使用數據皆能受到監管,於事件未發生時,則有前端監督其合規性,將使市場有明確性,且能向人民進一步保證其關注將獲得解決。
拜登政府宣布採取促進負責任AI創新之新行動,以保護美國人民權利與安全拜登政府於2023年5月4日宣布將採取促進負責任AI創新之新行動,表示公司於部署或公開其產品前,應致力於降低AI風險,並強調風險管理與保障措施的重要性,以防止AI對個人與社會造成潛在危害。此外,拜登總統於2月簽署「透過聯邦政府進一步推動種族平等和支持弱勢群體」行政命令(Executive Order on Further Advancing Racial Equity and Support for Underserved Communities Through The Federal Government),指示聯邦政府機關在設計和使用AI等新技術時,應避免偏見,並保護公眾免受演算法歧視。促進負責任AI創新之新行動包括: 一、投資負責任AI的研發 美國國家科學基金會(National Science Foundation)宣布撥款1.4億美元以啟動7個新的國家AI研究所,未來全美將有25個國家級AI研究所。除有助於促進公私部門之間合作外,將強化AI研發基礎設施、支持多元化AI勞動力發展,及推動氣候、農業、能源、公共衛生、教育與資安等關鍵領域之突破。 二、公開評估現有的生成式AI系統(generative AI systems) Anthropic、Google、Hugging Face、微軟、NVIDIA、OpenAI和Stability AI等領先AI開發商將參與AI系統獨立公開評估,以評估其模型是否符合AI權利法案藍圖(Blueprint for an AI Bill of Rights),及AI風險管理框架(AI Risk Management Framework)所提出之原則與實踐,並使企業及開發人員能就所發現問題,進一步採取解決措施。 三、提出政策引導聯邦政府減輕AI風險及提升AI利用機會 美國行政管理預算局(Office of Management and Budget)宣布,將於2023年夏季發布有關聯邦政府機關各部門使用AI系統之政策指引草案,並徵詢公眾意見。
機器人產品監管法制研析機器人產品監管法制研析 資訊工業策進會科技法律研究所 2021年03月25日 台灣為全球ICT產品主要生產國之一,在產業鏈占有一席之地,有關機器人本體製造、國外產品、零組件、系統應用代工或代理商已超過百家,由機器人產品帶動之經濟效益預計將影響製造業整體產值,從而在安全標準、使用規範及責任歸屬上,有必要釐清現行法律規範,並同時審酌如何與國際規範接軌,而有需要進一步規範之處。 機器人依據其使用目的之不同,就現有之機器人產品分類而言,大致可分為「工業型機器人」(Industrial Robots)及「服務型機器人」(Service Robots)兩種。兩者之區分方式通常以國際機器人聯合會(International Federation of Robotics, IFR)之定義為主。「工業型機器人」在各種危險、需大量勞力或精密的工廠,皆可使用產業機器人取代人類,目前主要應用於汽車、面板、晶圓等各種製造業廠房;「服務型機器人」範圍較廣,具有移動性、無限制、多樣性等特性,有別於工業機器人侷限於工廠內使用,服務型機器人種類多樣,應用範圍廣泛,且需具備對環境的感測、辨識能力,以自行決定行動的智慧化功能。而另一面也逐漸受到國際間討論的,是智慧機器人(機器人具有接近強人工智慧的機能[1])相關之倫理、責任歸屬及損害賠償配套措施,而這部分所觀察之法律議題與上述既有之機器人產品之法規發展方向略有不同,因此本研析也將討論相關規範及國際關注焦點[2]。 壹、事件摘要 我國在機器人產品監管法規上仍依循傳統產品標準檢驗之路徑,且相關規範以工業機器人為主,為避免我國廠商因其他國家之產品監管法規之差異而阻礙其貿易流通,機器人產品監管架構實有必要與國際同步,並確保監管程序及標準能與技術發展保持一致。標準與規則的建立是促成機器人領域發展的重要因素,其中歐盟對於機器人標準化之發展在全球扮演關鍵之角色,而歐洲為我國貿易之重要市場,且其產品之CE認證屬於強制性產品檢驗,而於中國、美國採自願性認證(未經認證仍可銷售)有所不同。 故本研究首就商品檢驗、資料保護、勞工安全及產品責任等層面,對我國機器人產品之相關法令進行盤點,並選定歐盟機器人領域相關指令進行研析,對我國相關各界而言,或宜以該等規範或標準為標竿或參考,帶動台灣機器人產業向世界發展。 一、我國法規現況 目前針對機器人產品之法令散見於各法規之中,除了工業用機器人針對職業安全、危害預防有特定規範之外,並無(其他)機器人特別規範,相關規範盤點如下表,並就各類別說明如下: 表 1 :我國機器人相關規範 分類 細類別 規範 內容 商品檢驗、 產品安全 商品檢驗、 電磁相容性 《商品檢驗法》、《商品型式認可管理辦法》 商品安全管理制度。 頻譜 《電信法》、《電波監理業務管理辦法》 無線電頻率指配及設備規範。 國家標準 CNS 14490-1 B8013-1 CNS 14490-2 B8013-2 工業機器人安全性國家標準。 國際標準 工業機器人 ISO 10218-1 ISO 10218-2 ISO 9283 ISO 10218-1--規範工業機器人製造商適用的安全要求。ISO 10218-2--規範工業機器人系統整合適用的安全要求。 ISO 9283--提供工業用機器人操作之性能與測試標準與方法。 個人護理機器人 ISO 13482 個人護理機器人之調和安全標準,其安全性和可靠性的評估依據。 資料保護 個人資料 《個人資料保護法》 規範針對個人資料進行蒐集、處理、利用的單位,都應該取得當事人同意或依法進行。 勞工安全 職業安全 (工業機器人) 《職業安全衛生管理辦法》、「事業單位實施協作機器人安全評估報告參考手冊」 雇主對工業用機器人應於每日作業前依規定實施檢點。 使用協同作業機器人時實施安全評估,並製作安全評估報告,確保勞工作業安全。 危害預防 (工業機器人) 《工業用機器人危害預防標準》、「機器人危害預防手冊」 預防工業用機器人造成之危害。 產品責任 責任歸屬 《民法》、《消費者保護法》 機器人造成相關損害,所應負之契約及侵權責任。 鼓勵促進 投資抵減 《產業創新條例》、《公司或有限合夥事業投資智慧機械或第五代行動通訊系統抵減辦法》 企業投資於自行使用全新智慧機械,或導入5G行動通訊系統相關設備或技術一定額度,得抵減營利事業所得稅。 資料來源:本研究整理 二、歐盟機器人法制規範與發展 歐盟為了避免各成員國間產品監管法規之差異阻礙貿易流通,故歐盟採行後市場監督工作為核心之產品安全規範體系,並透過調和指令來調和產品安全法規,建立歐盟境內一致性之產品安全規範體系,以下整理出歐盟與機器人相關之規範、內容。 表 2 :歐盟機器人相關規範 分類 細類別 規範 內容 商品檢驗、 產品安全 商品檢驗通用規範 《新法律架構規範》(Regulation EC No.765/2008 )、《新法律架構決議》(Decision No. 768/2008/EC) 包括商品檢驗之一般性規定、認證、歐盟市場監督與進入市場之管制、CE 標識、符合歐盟財政安排之活動等相關規範。 機械 《機械指令》(Directive 2006/42/EC[3]) 推動機械產品之自由移動,並保證歐盟勞工及人員享有高度保護。原則上,該項指令僅適用於第一次進入歐盟市場之機械產品。 電磁波 《電磁相容性指令》(Directive 2014/30/EU[4]) 為保證所有電機電子產品可正常運行,不被其他產品釋放出的電磁干擾,亦不會釋放可能干擾其他產品正常運行之電磁。 無線電 《無線電設備指令》(Directive 2014/53/EU) 確保無線電設備符合歐盟安全及衛生要求,包括市場監管機制,特別要求製造商、進口商及配銷商應有之追溯責任。 資料保護 個人資料保護 《一般個人資料保護規則》(GDPR[5]) 內容主要涵蓋資料當事人的權利、資料控制者與處理者的義務、個資跨境傳輸、政府的監理體制、救濟措施等。 勞工安全 職業安全 《工人工作過程中的健康和安全水平指令》(89/391/EEC) 鑑於工作事故和職業病的發生率高,雇主須採取或改進預防措施,以保障工人的安全和健康並確保更高的保護水準;及告知工人安全和健康的風險並降低或消除這些風險所需的措施。 產品責任 責任歸屬 《一般產品安全指令》(Directive 2001/95/EC)[6]、 《產品責任指令》(Council Directive 85/374/EEC[7]) 規定產品一般性要求、製造及銷售業者的責任。 資料來源:本研究整理 貳、重點說明 觀察我國及歐盟現行有關機器人之規範大致可分四類,商品檢驗、資料保護、勞工安全及產品責任。 在商品檢驗之規範方面,主要係為促使商品符合安全、衛生、環保及其他技術法規或標準,為保護消費者權益,國家辦理各類商品之檢驗以維護產品安全;而資料保護則是在以大量資料之分析為基礎的人工智慧發展浪潮下,個人資料保護議題面臨挑戰,國家試圖在創新發展及隱私保護上進行衡平規範;勞工安全方面則是由於機器人可能因使用不當造成勞工工作災害,實需要讓勞工使用符合機械安全標準的工業用機器人,以預防發生產業之切、割、捲、夾、被撞等類型職業災害(近年也有針對服務型機器人之工安標準討論,但尚未有具體規範);最後在產品責任部分,目前多依循既有契約、侵權等民事規範處理,但當機器人自主決定所致損害時,因機器人決策形成過程所涉及之軟硬體、資料、資料連網服務等相當龐雜,難以(快速)釐清與歸責,有待進一步規範並填補損害。依據規範類別,對比我國與歐盟之主要差別如下表: 表 3 :歐盟與我國機器人規範之主要差別 歐盟 我國 商品檢驗 主要以「產品功能」對應其檢驗流程。 設有「自我宣告」之簡易流程,並開放認可之實驗室檢驗。 主要以「品項」對應其檢驗流程,須先進行「品目查詢」。 主管機關介入度較高。 資料保護 規定較具體細緻,跨境傳輸、自動化決策、被遺忘權及資料可攜有具體規定。 未針對人工智慧應用有特殊規定。 未規範自動化決策、被遺忘權及資料可攜。 勞工安全 依循既有工安規範。 工業機器人之工安規範依循國際標準。 工業機器人之工安規範依循國際標準(但未完全一致)。 產品責任 主要採「嚴格責任」,仍有少數免責事由。 針對智慧機器人應用之民事責任有進行相關檢討及修法分析。 採民法、消保法雙軌制,消保法採無過失責任(無法完全免責)。 資料來源:本研究整理 就歐盟針對機器人之監管法規架構,及與機器人相關產品指令之規範內容與主要義務,檢視對應我國之相關法規與規定後發現,事實上我國關於機器人商品檢驗之規範方向與歐盟大致相似,主要差異在於資料保護方面,因歐盟GDPR之規範較新且較為細緻,存有許多我國個資法尚未規範之處,而我國也尚未針對智慧機器人之產品責任規範。我國與歐盟關於機器人規範之整體比較,請參照下表: 表 4 :歐盟與我國機器人規範之比較 分類 歐盟規範內容 我國規範 商品檢驗 產品認證、評鑑程序 法源依據為新法律架構規範、新法律架構決議。 產品認證部分--(accreditation)一般性規定、認證、市場監督與進入市場之管制、CE 標識。 →多數商品可透過「自我宣告」等較簡易之方式進入市場。 《商品檢驗法》第5條:商品檢驗執行之方式,分為逐批檢驗、監視查驗、驗證登錄及符合性聲明四種,依照不同種類而有不同之分類及檢驗方式。à部分產品政府高度介入 《商品型式認可管理辦法》第6條第1項第1款規定:「一、一般型式試驗:電磁相容性型式試驗,應檢具相關技術文件及足夠測試所需之樣品,向標準檢驗局認可之指定試驗室辦理;其他型式試驗,應檢具相關技術文件及足夠測試所需之樣品,向檢驗機關或標準檢驗局認可之指定試驗室辦理。但大型或系統複雜商品,得向標準檢驗局申請指定場所測試。」 評鑑程序的部分—規範各種技術工具之定義、設計標準、符合性評鑑主體之通知、通知過程之條款、符合性評鑑之程序、防衛機制、經濟營運者(economic operators)之責任及商品追蹤性等規定。 機械 法源依據為機械指令,當產品進入市場--應符合一定要件、程序(如:健康和安全規範、黏貼CE標誌等要求) 職業安全衛生法以及商品檢驗法規定,我國未符合安全標準或未通過檢驗之機械產品,不得產製運出廠場或輸入。 產品標準之法源依據為機械指令。 職業安全衛生法第7條。 市場監督之法源依據為機械指令。 職業安全衛生法第7條、第8條、第9條,以及機械設備器具監督管理辦法中,規範產品監督及市場查驗之細節。 電子電氣設備電磁相容性之基本要求 法源依據為電磁相容性指令。 《商品型式認可管理辦法》第6條第1項第1款--電磁相容性型式試驗,應檢具相關技術文件及足夠測試所需之樣品,向標準檢驗局認可之指定試驗室辦理 無線電終端設備之基本要求 法源依據為無線電設備指令 電信法第42條第2項、電信終端設備審驗辦法 資料保護 開發設計 《一般個人資料保護規則》:事前進行「個人資料保護影響評估」 以及可能造成之風險與資料管理者所採取之保護措施、安全措施(強調事前)。 施行細則第12條2項3款規範個人資料風險評估及管理。 蒐集、感測 《一般個人資料保護規則》:個人資料範疇--明文涵蓋網路識別碼、位置資訊。 特定目的:有規定「為達成公共利益之目的、科學或歷史研究目的或統計目的所為之進階處理,不應視為不符合原始目的」之例外。 去識別化之方式:歐盟強調不可逆。 跨境傳輸:原則禁止,例外允許。當未取得認證或適足性,外國廠商無法將歐盟境內所蒐集到的個資,傳輸回位於本國之伺服器。 個人資料範疇:我國較多正面表列項目,無規定者則依靠解釋。(第2條第1款、第6條)位置資訊、網路識別碼等是否屬於個資,我國並未列舉,實務上迭有爭議。 特定目的:皆須有特定目的方可為之。 去識別化之方式:個人資料保護法施行細則第17條,並未強調不可逆。 跨境傳輸:原則允許,例外禁止。(第21條) 處理、資料分類 《一般個人資料保護規則》:資料處理--需符合一定之規範(未區分公務及非公務機關)。 資料處理:需符合一定規範,並特別區分公務及非公務機關。(第15、19條) 分析與驅動傳輸 《一般個人資料保護規則》: 自動化決策--強調「透明處理原則」,針對「個人化自動決策」賦予用戶請求解釋、拒絕適用的權利。 被遺忘權--應考量現行可行之科技技術及費用,選擇適當之措施,包括刪除所有與其個資之連結。 資料可攜權--資料主體應有權接收其提供予控管者之資料,並有權將之傳輸給其他控管者。 自動化決策:無規定。 被遺忘權:規定模糊,容有解釋空間。 資料可攜權:可透過間接解釋之方式達成。 後續衍生的偏見、歧視等問題 《人工智慧倫理準則》目前為企業自主使用,無強制性。 科技部《人工智慧科研發展指引》目前以科研人員為適用對象。(目前請科技部AI研究中心計畫、中心Capstone計畫、研究計畫人員填寫自評表) 產品責任 產品責任之義務範圍 法源依據為《一般產品安全指令》、《產品責任指令》。 生產者--應僅將安全產品投入市場,向消費者提供評估和預防風險的資訊。 經銷商--監督產品進入市場的安全性,相關適當因應措施。 消保法第7條第1項:企業經營者應確保該商品或服務,符合當時科技或專業水準可合理期待之安全性。 消保法第10條:危險產品之回收和要求採取適當因應措施。 產品責任之責任範圍 法源依據為《一般產品安全指令》、《產品責任指令》。 嚴格責任(strict liability)--消費者不需要證明製造商之過失,只需要證明損害是由產品造成即可。(製造商例外仍可自證免責,產品責任指令第7條) 民法第191條之1第1項:推定過失責任,為舉證責任倒置的設計。 消保法第7條第1項:企業經營者能證明其無過失者,法院得減輕其賠償責任。採無過失責任,無免責條款。 產品責任之連帶賠償責任 法源依據為《一般產品安全指令》、《產品責任指令》。 兩個以上的生產者(包含製造、經銷、進口商等),應對同一損害共同承擔責任時。 消保法第7條第3項--企業經營者商品不符當時科技或專業水準之安全性、危害消費者,致生損害於消費者或第三人時。 消保法第8條--從事經銷之企業經營者。 消保法第9條--輸入商品之企業經營者。 資料來源:本研究整理 參、事件評析 我國目前法律規範主要針對「工業型機器人」為主,而未來也應逐漸擴及至「服務型機器人」,並對「智慧機器人」相關議題有所討論,且可能宜進一步區分其風險高低而有不同規範,例如區分一般風險較低的家庭服務、居家照護機器人進行一般之商品安全及責任規範;而對於高度風險之機器人,除應有基本操作與風險排除規範外,更應避免使用錯誤造成危害。同時考慮機器人的運作,必須讓主管機關可以追蹤、回溯所有設計、製造、販售、所有權人與使用人,藉以釐清責任歸屬,並要求符合相對應的安全規範管制要求,以尋求更好的預防與處置管制措施。因此,針對我國機器人相關之規範初步發現及建議如下: 一、商品檢驗規範尚待明確:目前我國對於機器人之相關規範及標準大多集中於商品檢驗與勞工安全兩類,且以工業型機器人為主要規範標的;鑒於服務型機器人之發展,許多標榜為「機器人」之產品快速增加,而其對應之商品檢驗品項與標準不甚明確,造成業者與消費者之疑義。同時,國際間開始針對部分服務型機器人提出相關標準,此部分也應參酌國際趨勢,考量進行滾動式更新或調整,同時可透過公協會或平台使業者知悉規範趨勢。 二、考量業者需求彈性調整資料保護規範:由於智慧機器人奠基於大量資料驅動與人工智慧技術,而我國現有個人資料保護規範尚未有對應於人工智慧技術之彈性規範,且與國際間相關規範(例如:GDPR)有部分無法對應之處。因此,在具體應用上產生遵法成本過高、資料流通受限等問題。故在資料保護之規範上,除考量新興技術之應用外,也應考量國外相關規範之域外效力,儘快取得適足性認定,而有助於我國業者拓展國外市場。 三、逐步研訂或調整與智慧機器人之相關規範:由於目前具有高自主性之智慧機器人在市場尚未普及,相關產品責任仍回歸適用既有各類規範(例如:民法、消費者保護法等)。但國外已開始針對機器人之倫理、責任歸屬等問題,積極展開研究與佈署,並討論是否既有規範可能產生之不足之處,而有修正既有規範與研訂專門法規之討論。而智慧機器人隨著其自主性越高可能產生不可預見之風險,而可能與現行規範有所扞格。因此,未來主管機關應參酌國外相關研究與規範,並逐步建置可以追蹤、回溯所有設計、製造、販售、所有權人與使用人,藉以釐清責任歸屬,並符合相對應的安全規範管制要求,並尋求相應之風險預防與處置管制措施。 [1] 人工智慧可有三層次定義:第一層次是「弱人工智慧」或「狹隘人工智慧」,希望電腦能解決某個需要高度智力才能解決的問題,不要求它跟人類一樣有全面智慧解決各式各樣不同的問題;第二個層次是「強人工智慧」或「泛人工智慧」:要求電腦的智慧需要更全面廣泛,需要有推理、學習、規劃、語言溝通、知覺等能力,擁有這些能力的電腦才有可能展現出跟人類並駕齊驅的智慧;第三個層次是John Searle提出的「強人工智慧假說」(Strong AI Hypothesis),這個層次人工智慧需要擁有跟人類一樣的「心靈」,需要認知自我並如同人類般思考。 [2] 當前機器人已衍生許多產品且應用場景各有不同,就不同種類、不同場景之機器人有不同規範程度之需求。在工業機器人方面,過去因為工安考量,法規強調機器與人類之間分開作業、人機間之安全距離等,但近年來因為人機協力操作之設計與發展備受關注,逐漸產生出人機近距離協力合作之安全標準;而在於服務機器人議題當中,基本上服務機器人被設計為允許與人類共同存在同一空間中,且產品種類多樣化(無人機、搬運機器人、掃地機器人、照護機器人等皆屬之),但也因當前安全標準及相關之規範缺乏,各國對於產品審驗之寬嚴不一,亦成為機器人發展與市場流通之障礙;而在智慧機器人規範方面,倫理、責任歸屬及配套措施則是目前國際討論之焦點。 [3] Directive 2006/42/EC of the European parliament and of the council, EUR-LEX, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:02006L0042-20190726 (last visited Mar. 5, 2021). [4] Directive 2014/30/EU of the European Parliament and of the Council, EUR-LEX, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A32014L0030, (last visited Mar. 15, 2021). [5] Regulation (EU) 2016/679 of the European parliament and of the council, EUR-LEX, https://eur-lex.europa.eu/legal-content/EN/ALL/?uri=celex%3A32016R0679 (last visited Mar. 15, 2021). [6] Directive 2001/95/EC of the European parliament and of the council, EUR-LEX, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:02001L0095-20100101 (last visited Mar. 4, 2021). [7] Council Directive 85/374/EEC, EUR-LEX, https://eur-lex.europa.eu/legal-content/en/TXT/?uri=CELEX:31985L0374 (last visited Mar. 5, 2021).
落實完善數位資料管理機制,有助於降低AI歧視及資料外洩風險落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).