日本獨立行政法人情報處理推進機構於2024年7月4日發布利用AI時的安全威脅、風險調查報告書。
隨著生成式AI的登場,日常生活以及執行業務上,利用AI的機會逐漸增加。另一方面,濫用或誤用AI等行為,可能造成網路攻擊、意外事件與資料外洩事件的發生。然而,利用AI時可能的潛在威脅或風險,尚未有充分的對應與討論。
本調查將AI區分為分辨式AI與生成式AI兩種類型,並對任職於企業、組織中的職員實施問卷調查,以掌握企業、組織於利用兩種類型之AI時,對於資料外洩風險的實際考量,並彙整如下:
1、已導入AI服務或預計導入AI服務的受調查者中,有61%的受調查者認為利用分辨式AI時,可能會導致營業秘密等資料外洩。顯示企業、組織已意識到利用分辨式AI可能帶來的資料外洩風險。
2、已導入AI利用或預計導入AI利用的受調查者中,有57%的受調查者認為錯誤利用生成式AI,或誤將資料輸入生成式AI中,有導致資料外洩之可能性。顯示企業、組織已意識到利用生成式AI可能造成之資料外洩風險。
日本調查報告顯示,在已導入AI利用或預計導入AI利用的受調查者中,過半數的受調查者已意識到兩種類型的AI可能造成的資料外洩風險。已導入AI服務,或未來預計導入AI服務之我國企業,如欲強化AI資料的可追溯性、透明性及可驗證性,可參考資策會科法所創意智財中心所發布之重要數位資料治理暨管理制度規範;如欲避免使用AI時導致營業秘密資料外洩,則可參考資策會科法所創意智財中心所發布之營業秘密保護管理規範,以降低AI利用可能導致之營業秘密資料外洩風險。
本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。
本文同步刊登於TIPS網站(https://www.tips.org.tw)
中國國務院發布AI行動意見,全面推動智慧應用加速現代化建設 資訊工業策進會科技法律研究所 2025年12月10日 隨著人工智慧(下稱AI)技術的快速發展,全球各國政府均積極推動AI在百工百業各領域的應用,以提升國家創新力、產業競爭力與社會治理效能,中國政府亦是如此。同時,受地緣政治及經貿競爭的影響,中國政府為強化國家供應鏈安全與韌性,由政府主導加速現代化建設,以推動智慧社會新型態的發展為目標。 壹、事件摘要 中國國務院於2025年8月26日發布「關於深入實施人工智能+行動的意見」(國發[2025〕11號)(下稱行動意見)[1],旨在全面推動AI應用於各行各業,以提升國內產業生產力與創新量能,並促進人機協作的智慧社會新型態,作為推動「中國式現代化」發展之重要建設。 貳、行動意見重點內容 於該行動意見中,中國國務院提出三項階段性目標,分別為: 一、 2027年前:AI應用普及率達70%以上 推動科技、產業、消費、民生、治理與全球合作的6大核心領域全面結合AI應用,擴大AI使用普及率達70%以上,以達加速公共治理與產業創新之成效。 二、 2030年前:AI應用普及率達90%以上 強化前述6大核心領域,持續擴大AI使用普及率可達90%以上,實現研發成果共享之效益。 三、 2035年前:AI應用普及率達100% 建立全面人機協作之智慧經濟與社會新型態,作為國家現代化建設之重要基礎。 為實現前述三階段目標,中國政府針對6大核心領域提出具體行動方向,重點整理如下: 一、 AI+科學技術 為加速科研進程並推動大模型建設與應用,將強化基礎科學研究平台和重要科技基礎建設的智慧化升級,打造開放式且高品質的共享資料集,以促進AI跨領域的結合發展。同時,亦積極促進AI帶動研發模式創新與效能的提升,以加速技術研發和產品應用落地。 二、 AI+產業發展 鼓勵企業將AI導入內部策略規劃、組織架構與業務流程設計等,以建構創新的商業模式;並在技術、產品與服務體系中推動智慧化應用,強化供應鏈各環節與AI的協作,同時最佳化工業、農業及服務業的生產與服務模式,藉以帶動傳統產業轉型升級,建構新型生態體系並加速整體產能提升。 三、 AI+消費增質 透過推動AI與服務的結合,建立多元及智慧化的服務模式,加速發展智慧消費相關基礎建設;此外,推動AI應用於各類商品與設備,重點發展智慧聯網汽車、智慧機器人、智慧家居、智慧穿戴等終端商品,加速技術融合與產品創新,以提升人民生活的品質。 四、 AI+民生福祉 透過推動人機協作的模式,提供新型的工作、學習與生活型態,建立更具智慧化的社會發展模式。例如,企業雇主可藉由AI協助建立新型組織架構和管理模式,提升傳統職務執行之效率,亦或是透過AI進行技能培訓以因應勞動力短缺之情形;學校教育面向則可推動AI融入教學教材,推動更加多元與互動之學習生態;生活方面則計劃推動AI健康照護、社會服務等領域廣泛應用,全面提升公共服務與生活品質,形成具包容性的智慧化社會。 五、 AI+智慧治理 推動AI全面導入社會治理過程,以促進市政管理、政務服務及公共資源運作的智慧化轉型,並利用AI強化公共安全與網路安全治理能力,完善國家安全防護的機制;於生態層面,將運用AI推動綠色永續與人機協作,強化於環境與碳管理領域的監測、預測及治理能力,促進高效及精準的治理模式。 六、 AI+全球合作 推動AI的普及與共向,建立開放生態系、強化運算能力、資料與人才領域的國際合作,共同提升全球南方AI基礎建設,縮減全球數位落差,協助各國可平等參與智慧化發展過程,共同因應AI應用相關風險,確保技術發展安全且可信賴地發展。 參、事件評析 從上述中國國務院發布之行動意見可知,其目標在於藉由強化安全及可信賴的AI,並促進AI應用於各領域的發展,以建構可持續性的智慧化生態系,提升社會治理效率與全民生活的品質,以利國家經濟與科技的共同發展。 然而,該行動意見雖明確提出國家整體目標及治理方向,為相關領域的智慧化發展提供指引,惟對於各項目標尚未提出可操作性措施、具體政策細節,或對產官學各單位可獲得的政府資源、技術支持與協助等進行明確規範。故後續仍需持續關注相應政策措施及配套資源的發布,以評估其實際推動AI應用之成效。 [1]《国务院关于深入实施“人工智能+”行动的意见》(國發[2025]11号)。
歐洲議會通過《人工智慧法案》朝向全球首部人工智慧監管標準邁進下一步歐洲議會通過《人工智慧法案》 朝向全球首部人工智慧監管標準邁進下一步 資訊工業策進會科技法律研究所 2023年06月26日 觀察今年的科技盛事屬ChatGPT討論度最高,將人們從區塊鏈、元宇宙中,帶入人工智慧(AI)領域的新發展。ChatGPT於2022年11月由OpenAI開發的生成式人工智慧,透過深度學習模型,理解和生成自然語言,其功能包含回答各類型問題(如科學、歷史)、生成邏輯結構之文章(如翻譯、新聞標題)、圖形、影像等內容。然而對於人工智慧的發展,究竟如何去處理人機間互動關係,對於風險之管理及相關應用之規範又該如何,或許可從歐盟的法制發展看出端倪。 壹、事件摘要 面對人工智慧的發展及應用,歐盟執委會(European Commission)早在2018年6月成立人工智慧高級專家組(AI HLEG),並於隔年(2019)4月提出「可信賴的人工智慧倫理準則」(Ethics Guidelines for Trustworthy AI),要求人工智慧需遵守人類自主、傷害預防、公平、透明公開等倫理原則。於2021年4月21日歐盟執委會提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(以下稱人工智慧法案),於2023年內部市場委員會(Internal Market Committee)與公民自由委員會(Civil Liberties Committee)通過並交由歐洲議會審議(European Parliament),最終《人工智慧法案》於2023年6月14日通過。後續將再歐盟理事會(Council of the European Union)與辯論協商,尋求具共識的最終文本[1]。 貳、重點說明 由於「歐盟議會通過」不等於「法案通過」,實際上歐盟立法機制不同於我國,以下透過法案內容說明的契機,概述一般情況下歐盟之立法流程: 一、歐盟立法過程 通常情況下,法案由歐盟執委會(下簡稱執委會)提出,送交歐盟理事會及歐洲議會,作為歐盟的「立法者」歐洲理事會(下簡稱理事會)與歐洲議會(下簡稱議會)將針對法案獨立討論並取得各自機關內之共識。大致上立法程序有可分為三階段,在一讀階段若理事會與議會對於執委會版本無修改且通過,則法案通過,若任一機關修改,則會進行到二讀階段。針對法案二讀若仍無法取得共識,則可召開調解委員會(Conciliation)協商,取得共識後進入三讀。簡單來說,法案是否能通過,取決於理事會與議會是否取得共識,並於各自機關內表決通過[2]。 目前《人工智慧法案》仍處於一讀階段,由於法案具備爭議性且人工智慧發展所因應而生之爭議迫在眉睫,議會通過後將與執委會、理事會進入「三方會談」(Trilogue)的非正式會議,期望針對法案內容取得共識。 二、人工智慧法案 (一)規範客體 《人工智慧法案》依風險及危害性程度分級,其中「不可接受風險」因抵觸歐盟基本價值原則禁止(符合公益目標,如重大或特定犯罪調查、防止人身安全遭受危害等例外許可)。「高風險」則為法案規範之重點,除針對系統技術穩健、資料處理及保存訂有規範外,針對人為介入、安全性等也訂定標準。 而針對高風險之範疇,此次議會決議即擴大其適用範圍,將涉及兒童認知、情緒等教育及深度偽造技術(Deepfake)納入高風險系統,並強調應遵循歐盟個人資料保護規範。此外對於社會具有高影響力之系統或社群平臺(法案以4500萬用戶做為判斷基準),由執委會評估是否列為高風險系統。針對目前討論度高的生成式人工智慧(ChatGPT),議會針對法案增訂其系統於訓練及應用目的上,應揭露其為生成式人工智慧所產出之內容或結果,並摘要說明所涉及之智慧財產權[3]。 (二)禁止項目 關於《人工智慧法案》對於高風險系統之要求,從執委會及理事會的觀點來看,原則上重點在於對弱勢的保護及生物資料辨識之權限。歐盟禁止人工智慧系統影響身理及心理,包含對於特定族群如孩童、身心障礙者等弱勢族群之不平等待遇。同時原則禁止即時遠端的生物辨識利用,包含對於人性分析、動作預測等對於人類評價、分類之應用,例外情況如犯罪調查、協尋失蹤兒童、預防恐怖攻擊、關鍵基礎設施破壞等情況時方被允許。此次議會決議提高禁止即時遠端生物辨識的標準,包含納入敏感資訊的蒐集如性別、種族、政治傾向等,及其他臉部辨識、執法、邊境管制、情緒辨識等項目[4]。 參、事件評析 有關《人工智慧法案》雖歐洲議會已一讀通過,然而後續仍要面對與歐盟理事會的協商討論,並取得共識才能規範整個歐盟市場。因此上述規範仍有變數,但仍可推敲出歐盟對於人工智慧(含生成式)的應用規範態度。在面對日新月異的新興科技發展,其立法管制措施也將隨著橫向發展,納入更多種面向並預測其走向趨勢。因人工智慧有應用多元無法一概而論及管制阻礙創新等疑慮,觀察目前國際上仍以政策或指引等文件,宣示人工智慧應用倫理原則或其風險之管理,偏重產業推動與自律。 觀察歐盟《人工智慧法案》之監管目的,似期望透過其市場規模影響國際間對於人工智慧的監管標準。倘若法案後續順利完成協商並取得共識通過,對於如OpenAI等大型人工系統開發商或社群平臺等,若經執委會評估認定為高風險系統,勢必對於未來開發、應用帶來一定衝擊。因此,歐盟對於人工智慧監管的態度及措施實則牽一髮而動全身,仍有持續觀察之必要。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]The AI Act, Future of Life Institute, https://artificialintelligenceact.eu/developments/ (last visited Jun. 20, 2023) [2]The ordinary legislative procedure, Council of European Union, https://www.consilium.europa.eu/en/council-eu/decision-making/ordinary-legislative-procedure/ (last visited Jun. 19, 2023) [3]EU AI Act: first regulation on artificial intelligence, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence (last visited Jun. 21, 2023) [4]MEPs ready to negotiate first-ever rules for safe and transparent AI, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-first-ever-rules-for-safe-and-transparent-ai(last visited Jun. 21, 2023)
新加坡個人資料保護法修正草案新加坡通訊及新聞部(Ministry of Communications and Information, MCI)與新加坡個人資料保護委員會(Personal Data Protection Commission, PDPC)於西元2020年5月14日至28日間針對其「個人資料保護法修正草案」進行民眾意見諮詢,總共收到87份回覆。綜合民眾回覆之意見後,同年10月5日,於議會提出了「個人資料保護法修正草案」,修正重點如下: 提高外洩個人資料者罰鍰金額,至該公司在新加坡年營業額10%或1000萬美元。MCI / PDPC說明,實際上於裁罰前會綜合考量個案事實與相關因素(如:嚴重性、可歸責性、影響狀況、組織有無採取任何措施減輕個資外洩造成的影響等),作為裁罰金額的判斷依據。此外,新加坡的個人資料保護法也加入了個資外洩通知義務,但與歐盟一般資料保護規範(General Data Protection Regulation, GDPR)仍有不同,例如:其多了評估是否通知的機制。 組織基於商業改善之目的,且遵守法定條件下,得未經同意使用個人資料,此處商業改善目的包含:(1)改善或加強提供之商品或服務,或開發新的商品或服務;(2)改善或發展新的營運方式;(3)瞭解客戶喜好;(4)客製化商品或服務所需。 在公司併購、重組、出售股份以及經營權轉讓等關於公司資產處置情形,得例外無需經當事人同意而蒐集、處理與利用個人資料。 新增資料可攜權相關規定。 處罰未經授權者處理個人資料之行為。針對民眾回覆之疑慮(認為草案內容不明確),MCI / PDPC說明預計在《法規與諮詢指南》中闡明有關授權行為的細節性規定,包含採取的形式。
日最高院 首定義網路「被遺忘權」日本一名男子要求法院下令谷歌(Google)刪除他因性犯罪被捕的新聞搜索結果,遭最高法院以侵害言論自由駁回。這是該國最高法院首次做出有關網際網路搜尋的「被遺忘權」相關裁決。 法院網站張貼的聲明表示:「唯有在保護隱私權的價值明顯高於資訊公開時,才會准許刪除(有關這項指控的內容)。」而東京法院亦對於刪除網路搜尋紀錄的基準做出定義,如: 1. 報導的事實性質及內容 2. 事實傳達的範圍及隱私受害程度 3. 當事人的社會地位及影響力 4. 報導的目的及意義 5. 社會的狀況 6. 報導中公開當事人真實姓名及住址的必要性 而日本法院雖已界定被遺忘權之判斷基準,但門檻極為嚴格,臺灣先前亦有前職棒球團老闆訴請Google移除其涉及假球案(法院判決其無罪)之相關連結,但遭敗訴之結果。 相較於亞洲對於被遺忘權行使之結果,歐洲法院於2014年時裁決:當個人資料係「不適當」、「無關連」、「已無關連且多餘」,而且「與公共利益無關」。民眾就有權行使被遺忘權,要求包括Google等搜尋引擎將其相關資料移除。自2014年5月29日統計至今歐洲地區行使被遺忘權之資料,Google收到685,622個要求,並完成「移除要求」評估的網址總數為1,896,454個網址,刪除率達到43.2%。 由上可知,亞洲(如日本與我國)與歐洲對於被遺忘權行使仍有判斷基準上之差異,故後續亞洲國家的相關發展還有帶持續關注。