英國政府擬限制18歲以下孩童於社群軟體按讚功能

  英國資訊委員辦公室(Information Commissioner’s Office, ICO)於今(2019)年4月15日發布「合適年齡設計:網路服務行為準則」(Age appropriate design: a code of practice for online services)諮詢報告,針對18歲以下孩童使用網路服務所涉及個人資料之相關議題提出遵循標準,要求網路服務提供商應受遵循以保障孩童隱私資訊。

  本次諮詢報告主要針對網路服務如何適當確保孩童個人資料,同時符合歐盟《一般資料保護規則》(General Data Protection Regulation, GDPR)以及《隱私及電子通訊規則》(Privacy and Electronic Communications Regulations, PECR),若網路服務提供商未依循該行為準則,將很難證明符合GDPR、PECR規定,ICO亦採取監管措施(regulatory action),包含警告、譴責、執行通知、罰款等。於諮詢報告中,臚列涉及個人資料事項,包括資料共享、地理定位(geolocation)、家長監控(parental controls)、輕推技術(nudge techniques)、默認裝置(default settings)、側寫(profiling)等多達16項遵循標準,其中輕推技術引發抑制網路科技發展、過度監管爭議。

  所謂「輕推技術」是指專為引導用戶或鼓勵用戶決策時可以點選之程式以表示用戶想法,簡而言之Facebook、Instagram按「讚」功能、社群軟體Snapchat「Streaks」互動功能,或是新聞網頁常見「是」或「不是」選擇性問題視窗等即是輕推技術應用。由於輕推技術之設計會蒐集用戶瀏覽網頁習慣,甚至透露其個人性格、生活狀態給廣告商或社群媒體等。

  諮詢報告指出,依據GDPR前言第38點規定,因孩童對於其個人資料處理之可能風險、結果及相關保護措施及其權利認知較低,同時依GDPR第5條規定個人資料之蒐集處理與利用,對資料主體者應為合法、公正及透明(lawfulness, fairness and transparency)。但輕推技術的運用將會促使資料主體者更容易地提供其個人資料,同時,尤其會誘導兒童去選擇隱私保護較低的選項設定或花費更多時間在這些服務上,而此一技術之運用正是利用資料主體者之心理偏差(psychological bias),而違反了公平與透明原則。因此諮詢報告書要求網路服務提供商應主動限制孩童使用輕推功能。ICO於諮詢文件更詳細依0-5歲、6-9歲、10-12歲、13-15歲、16-17歲不同年齡層限制輕推技術應用之程度,或在何種情況須有家長陪同,以保障孩童隱私。

  此項標準引來正反兩派意見,主張自由市場(free market)人士批評,認為有過度監管之嫌並阻礙科技發展,輕推技術本身不是問題,而是在於蒐集個人資料後要做那些運用,同時要如何執行限制技術之應用亦將是問題所在。而贊成者認為廠商如提供網路服務給所有年齡層時,應有特別措施以保護不同年齡層之人,因此對於孩童與成人間之監管程度應有區別。該諮詢報告於今(2019)年5月31日截止公眾諮詢階段,並預計2020年初施行該行為準則。

相關連結
相關附件
你可能會想參加
※ 英國政府擬限制18歲以下孩童於社群軟體按讚功能, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8250&no=67&tp=1 (最後瀏覽日:2026/01/29)
引註此篇文章
你可能還會想看
環保署提京都議定書因應對策 研擬溫室氣體管制法

  管制全球溫室氣體排放以遏制全球暖化的京都議定書在二月十六日生效,環保署將著手推動溫室氣體管制法的法制作業工作,目前正研擬溫室氣體管制法,規劃將由中央主管機關擬訂「全國溫室氣體防制基本方案」,同時確立政府各部門、企業及國民溫室氣體減量合作及分工;並規範推動國家溫室氣體盤查、登錄及排放清冊建置;授權訂定排放管制、財稅誘因及排放交易制度;推動溫室氣體減量技術研發等;同時推動教育宣導、推廣及鼓勵使用高能源效率產品與節約能源生活方式。   環保署署長張祖恩強調,雖然現有京都議定書條文中沒有貿易制裁或違約罰款的條款,但在合作共生的理念下,我國沒有理由當一個國際溫室氣體減量列車的搭便車乘客(free rider),應在公約精神下,積極推動節約能源、再生能源開發、提昇能源效率等工作。   環保署已於2004年度起首度整合產業、運輸及住商部門領域,辦理溫室氣體盤查管理工作,建立盤查規範登錄平台,積極推動國際標準組織ISO14064驗證系統,並遴選電力、石化、鋼鐵、造紙、水泥、光電半導體等業別12家示範廠商,推動6種溫室氣體全面盤查及減量工作,其中排放大戶台灣電力股份有限公司、中國鋼鐵股份有限公司、中國石油股份有限公司均已參與環保署試行盤查減量計畫。對於溫室氣體排放持續成長的住商部門,環保署協調相關部會規劃成立技術服務團,輔導既有建築物推動節約能源及提昇能源效率工作;對於運輸部門,除持續推動大眾運輸系統外,環保署將與相關部會加強推動油電混合小客車之引進。

美國食品藥物管理局發布《人類細胞及基因製劑生產變化及可比性試驗》指引草案—建構再生醫療產品品質要求

美國食品藥物管理局(U.S. Food and Drug Administration, US FDA)綜整近20年產官學研的建議,今年7月發布《人類細胞及基因製劑生產變化及可比性試驗》(Manufacturing Changes and Comparability for Human Cellular and Gene Therapy Products)指引草案,提供細胞及基因製劑(含組織工程產品)製造商執行可比性試驗依循的標準,做為實際運作上的參考。US FDA並強調若臨床開發與製程開發同步,將會使產品品質提升、產品供應增加或製造效率提高,讓國內外申請商申請新藥臨床試驗(Investigational New Drug, IND)及上市許可有明確的遵循方向。 之所以會需要有此指引的提出,乃是因為現今全球評估生物製劑原料藥或成品在製造品質變更前後的比較,需提供可比性試驗報告,做法上都是參考2004年國際醫藥法規協和會(International Council for Harmonisation of Technical Requirements for Pharmaceuticals for Human Use, ICH)公布「生物製劑可比性試驗」(ICH Q5E Biotechnological/biological products subject to changes in their manufacturing process: comparability of biotechnological/biological products)指引,但主要適用對象為蛋白質藥品及其衍生物,並不完全適用細胞及基因製劑。 可比性試驗的目的是確保化學製造管制(Chemistry, Manufacturing, and Controls, CMC)變更前後的原料藥或成品,品質需具有高度相似性,才可引用之前的CMC或IND的資料;如果使用的細胞種類、病毒載體及組織工程產品等重大改變,已嚴重影響原料藥或成品的品質,不適用目前的可比性試驗,需重新申請IND或上市許可,將造成申請商需要投入更多的成本,影響產品上市時程。 細胞及基因製劑屬於新興療法,其可比性試驗的審查迄今全球並沒有明確的規範,都是參考ICH Q5E建議,而FDA發布本指引草案正向表列細胞及基因製劑,其驗證確校、安定性及批次變更的可比性依據。讓業者可依循本指引草案,加速細胞及基因製劑的開發、IND申請及產品上市,提升生醫產業的發展。 本文同步刊載於stli生醫未來式網站(https://www.biotechlaw.org.tw)

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

英國智慧財產局發布「標準必要專利2024年展望」,確立未來關鍵目標

英國智慧財產局(Intellectual Property Office,下稱UKIPO)於2024年2月27日發布「標準必要專利2024年展望」(Standard Essential Patents: 2024 forward look),確立未來關鍵目標如下: (1)幫助專利實施者,尤其是中小企業可更好理解標準必要專利生態系,以及「公平、合理且無歧視」(Fair, Reasonable, and Non-Discriminatory, FRAND)授權原則; (2)針對定價和必要性,提高標準必要專利生態系的透明度; (3)加強使用仲裁和調解制度,提高爭議解決效率。 為達上述目標,英國計畫導入以下措施: 1.設立「標準必要專利資源中心」 UKIPO預計在2024年5月前設立一線上資源中心,以提供工具、指南和其他素材等方式,協助標準必要專利生態系中之專利實施者。 2.加強與國際及標準制定組織的交流 有鑑於SEP是全球性議題,UKIPO將就標準必要專利全球生態系挑戰,加快與其他國家有關當局的討論;UKIPO並將就智慧財產權政策及中小企業參與標準化等事宜,加強與標準制定組織之間的合作。 在推動上述措施後,UKIPO預計於2024年至2025年間展開一場「與技術相關」的公眾意見徵集(a public technical consultation)。UKIPO表示,任何需要進行SEP立、修法的方法都將是公眾意見徵集的一部分,惟不會包括「當標準必要專利被侵害時,是否要限制核發禁制令(injunction)」一事。

TOP