社群媒體是溝通資訊之重要工具。但部分社群媒體向用戶投放易使人成癮的資訊,對兒童和青少年福祉形成重大風險。據此緣由,美國加州立法機關於2024年1月29日提出社群媒體青少年成癮法草案(Social Media Youth Addiction Law),規定社群媒體除非能合理確定用戶非未成年人,或取得未成年用戶家長同意,否則不得向用戶提供易使人成癮的資訊。
該草案將網路或應用程式中,依用戶特徵或習慣,優先顯示的多片段資訊,定義為易使人成癮的資訊(addictive feed)。除非該資訊符合以下例外條件:
(1) 用戶用以搜尋資訊的關鍵字不會被使用的設備記憶,且該資訊與用戶過去的社群媒體使用行為無關。
(2) 是因用戶隱私設定、設備規格、未成年人限制而呈現的資訊。
(3) 是因用戶明確要求而提供,且不易使人成癮的資訊。
(4) 是用戶間直接且非公開之通訊組成的資訊。
(5) 是同一資訊來源,且在音檔或影片形式下,不會自動連續播放的資訊。
該草案亦規定投放易使人成癮資訊的社群媒體,不得在深夜至凌晨時段、上學至放學時段,以及開學期間的週一到週五,向未成年用戶發送通知,除非已取得未成年用戶家長同意。
最後,該草案規定投放易使人成癮資訊的社群媒體每年向公眾揭露未成年用戶總數量、家長同意接收易成癮資訊的未成年用戶數量等資訊。該規定有利大眾監督社群媒體對法規之遵循情況,並促進社會對兒童、青少年身心健康的關心。
落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).
澳洲2020年5月全國數位經濟與科技會議會後聲明澳洲產業、科學、能源及資源部(Department of Industry, Science, Energy and Resources)於2020年5月15日舉行全國數位經濟與科技會議,並於會後發表「2020年5月全國數位經濟與科技會議會後聲明」。本次會議由澳洲產業科學能源及資源部部長擔任主席,邀集各州、領地地方政府的創新或科技部門首長,以視訊方式研商COVID-19疫情後如何整合澳洲企業的數位能量,並使澳洲在2030年成為全球數位經濟的領先者。 聲明中首先肯定澳洲數以萬計的企業在面對COVID-19疫情時所展現的危機應對能力與提出各式數位科技解決方案,用以支持員工、服務消費者、提出資源供應的替代方案、溝通利害關係人等,有效地提升了營運與財務上的效率。而政府則藉由提供各式財務、社會保險與稅務上的支援措施,並持續針對個別情況規劃最適的支援方案。 聲明指出根據研究,數位工具將能協助小型企業每週節省約10小時的工時,並提升約27%的營收;若乘上澳洲全國小型企業的總數,等於每週可省下約2200萬小時的工時,並可年增約3850億元的營收。企業在疫情期間所採取的數位科技解決方案是未來推動營運模式數位轉型的契機,因此在疫情後整合澳洲官方與民間的數位能量,將是疫情後經濟復甦與未來經濟成長的關鍵。 聲明指出與會聯邦及地方政府相關首長已達成共識,將組成「數位經濟與科技資深官員小組」(Digital Economy and Technology Senior Officials Group),專責整合聯邦政府與地方政府的數位政策。本小組將提出數位經濟政策與企業所需的支援措施,用以加速數位轉型與COVID-19疫情後的經濟復甦,包含完成人工智慧及自主系統能力地圖(Artificial Intelligence and Autonomous Systems Capability Map),來找出尚待強化的能力與可加強合作的契機。 此外本小組將合作推動數位與資通安全工作、關鍵技術法規鬆綁,以協助減少企業法遵障礙並支持數位經濟成長。COVID-19疫情下揭示澳洲推動數位轉型的重要性,期許本小組能有效整合數位能量並填補數位落差,未來將每年召開三次全國數位經濟與科技會議,追蹤澳洲數位經濟與科技生態系的推動情形,並聽取資深官員小組的定期工作報告。
經建會回應歐洲商會之建議:將積極鬆綁法規,強化區域整合 提供完善投資環境歐洲商會在 10 月 26 日舉行記者會,公布「 2006-2007 年建議書」。該份建議書肯定我政府改善投資環境的努力,但該商會仍然呼籲政府要加速兩岸貿易正常化、強化內部溝通與外部協調,才能提供最完善的國際投資環境。 根據統計,歐盟在台投資大幅躍升,今年更超越美國在台投資總額,居外資在台投資第一位,顯示歐商對於台灣投資環境的重視與信心;政府也有決心繼續鬆綁法規,強化區域整合,以提供完善投資環境。對於歐洲商會建議之重點議題,經建會已對於各項議題作出初步回應,並表示行政院相關機關會積極檢討並持續溝通。 經建會胡勝正主委強調,歐洲商會所關切的議題有些牽涉全面政治環境考量,例如擴大開放大陸商品來台或放寬大陸投資 40 %上限等,將請主管機關朝放寬方向為整體性之研議規 劃; 其至於他屬現行政策可行但未解決問題,經建會將持續協調相關部會,朝開放的方向規劃推動。
歐盟第29條工作小組發布「自動化個人決策和分析指引」處理個人資料自動化決策與資料剖析風險問題歐盟第29條工作小組於2017年10月3日為因應歐盟一般資料保護規則(GDPR)第22條規定發布「自動化個人決策和分析指引」(Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679,2018年2月6日進一步修正,下稱指引),處理對個人資料自動化決策(automated decision-making)和個人檔案剖析(Profiling)的建立。 指引分為五個部分與最佳實踐建議,旨在幫助資料控制者(controller)合乎GDPR對個人資料自動化決策和分析的要求,內容包括下幾點:1.定義自動化決策和分析,以及GDPR對這些概念的處理方法;2.對GDPR第22條中關於自動化決策的具體規定;3.對自動決策和分析的一般規定;4.兒童和個人檔案剖析(Profiling)的建立;5.資料保護影響評估。 指引的主要內容包括: 個人檔案剖析(Profiling),意謂收集關於個人(或一群個人)的資料,並分析他們的特徵或行為模式,加以分類或分群,放入特定的類別或組中,和/或進行預測或評估(例如,他們執行任務的能力,興趣或可能的行為)。 禁止對個人資料完全自動化決策,包括有法律上法或相類重大影響的檔案剖析,但規則也有例外。應有措施保障資料主體的權利,自由和合法利益。 GDPR第22條第二項a之例外規定,(履行契約所必需的),自動化個人決策時,應該作狹義解釋。資料控制者必須能夠提出分析、自動化個人決策的必要性,同時考慮是否可以採取侵害隱私較少之方法。 工作小組澄清,關於在要求提供有關自動化決策所涉及的邏輯上有意義的資料時,控制者應以簡單的方法,告訴資料主體其背後的理由或依據的標準,而不得總是以自動化決策所使用算法進行複雜的解釋或者公開完整的算法為之。所提供的資料應該對資料當事人有意義。 對資料主體提供關於處理自動化決策上有關重要性和預期後果的資料,其意義在於必須提供關於該資料之用途或資料未來處理以及自動化決策如何影響資料主體的重要訊息。例如,在信用評等的情況下,應有權知道其資料處理的基礎,資料主體並能對其作出正確與否的決定,而不僅僅是關於決策本身的資料。 「法律效果」是指對某人的法律權利有影響,或者影響到個人法律關係或者其契約上權利。 工作組並未將GDPR前言71段視為絕對禁止純粹與兒童有關的自動決定,指出僅在某些情況下才有其適用(例如,保護兒童的福利)。 在基於自動化處理(包括分析)以及基於哪些決策產生法律效應或類似顯著效果的基礎上對個人方面進行系統和廣泛評估的情況下,進行資料保護影響評估並不局限於「單獨」自動化處理/決定。