「聯合國2017年年度隱私報告聚焦政府監督行為」

  聯合國人權理事會(Human Rights Council)於2016年3月8日依據28/16號「數位時代下之隱私權」(Right to Privacy in the Digital Age)決議,設立隱私特別報告員(Special Rapporteur on Privacy, SRP),專責調查各國隱私保護情形並每年定期向人權理事會和聯合國大會提交隱私報告(Report of the Sepcial Rapporteur on the right to privacy)。

  2017年年度隱私報告(A/HRC/34/60)於2月24日提出,報告除延續第一年報告中所列出的五大隱私優先課題 (跨國界隱私認知、安全與監督、巨量資料與開放資料、健康資料、企業擔任資料管理者議題等),主題聚焦於「情報蒐集」行為的監督,將政府監督行為歸類為十項:

  1. 基於使用國際化、標準化的術語和語言而有監督必要;
  2. 基於了解國家體系、體系比較之監督必要,以秘密(secretive)或公開形式進行;
  3. 促進、保護基本人權之相關措施;
  4. 保障與救濟措施(隱私特別報告員建議採國際性層次);
  5. 責任與透明度;
  6. 為蒐集、討論實務實踐狀況;
  7. 對政府監督行為之進一步討論;
  8. 尋求與公民溝通管道;
  9. 基於放寬安全部門、執法機關秘密性監督之必要;
  10. 基於對政府監督議題之公共論壇需求。

  期中報告對現階段政府監督行為以隱私友善(privacy-friendly)立場出發,總結後續推動方向如下:

  1. 為何民粹主義(polulism)、隱私兩議題與安全議題會產生衝突;
  2. 國家如何透過監督情報增進隱私保護;
  3. 誰有權主張隱私權,隱私權的普世性(universality)於政府監督行為具特別意義;
  4.  隱私權如何透過內國法、國際法的推動而更加落實;
  5.  透過更廣泛討論,關於監督的法律文件及相關國際法規範可期待成熟發展。

相關連結
你可能會想參加
※ 「聯合國2017年年度隱私報告聚焦政府監督行為」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7843&no=57&tp=1 (最後瀏覽日:2026/01/15)
引註此篇文章
你可能還會想看
美國新創企業啟動法(JOBS Act)聽證進展

  2014年7月24日美國眾議院金融服務資本市場附屬委員會(House of Representatives Committee on Financial Services’ Capital Markets Subcommittee)針對新創企業啟動法(Jumpstart Our Business Startups Act,簡稱JOBS法)舉行聽證,由證券交易委員會(United States Securities and Exchange Commission,簡稱SEC)企業融資處基思‧希金斯(Keith Higgins)處長(Director of the Division of Corporation Finance)向委員會說明。   各界對於JOBS法相當重視,委員們於聽證會中提出相關疑慮,處長回應包括: 期望今年底提出JOBS法所漏未規定之「存款與貸款」(savings and loans)部分之補救計畫(proposal)。 關於2013年SEC舉行之小型企業資本形成之企業論壇(Business Forum on Small Business Capital Formation)」之建議,例如創業者仰賴朋友與家人資助,仍應發行群眾募資證券(crowd-funding securities)給予此類非合格投資者(non-accredited investor)等,將部分建議納入考慮。 SEC正考慮將JOBS法原設定50萬美元的籌資門檻提高,以因應門檻(過低)對於群眾募資可能之負面影響。 本法提供股票初次上市的快速入口程序(onramp process),及快速成長公司(emerging growth companies)發行報告給潛在投資人,其執行緩慢原因在於投資人之顧慮,但相信此程序將經常被運用。   希金斯處長雖就部分疑慮進行解答,然後續仍須觀察SEC將如何完成JOBS法相關規範之制定與執行狀況。

美國德克薩斯州承認針對紙本文件的遠端墨水公證為法定線上公證方法

美國《德克薩斯州政府法(Government Code),以下簡稱政府法》的第406節「公證人、契約證明人(Notary Public; Commissioner of Deeds)」相關修正案於2024年1月1日正式生效,旨在針對該節的第406.101分節以下的線上公證相關規範,透過擴充線上公證要件,使遠端墨水公證(Remote Ink Notarization, RIN)成為法定線上公證方法,並明定相關程序要求,確保遠端墨水公證機制的安全性。 針對遠端墨水公證,依照美國土地產權協會(American Land Title Association, ALTA)提出的定義,係指文件透過影音媒體平台進行遠距公證,且無須經過多因子驗證。針對遠端墨水公證,雖然在新冠肺炎(COVID-19)流行期間,曾透過州長行政公告方式,承認在滿足指定條件下,得使用遠端墨水公證方式,進行交易,而本次修法則透過修正現有法規,以達到允許進行遠端墨水公證,且同時維持法定電子公證制度的安全架構。 本次修法內容如: 1.定義文件可包含實體及電子文件。 2.針對經電子公證的實體文件,承認委託人及公證人分別得使用實體符號(tangible symbol)及符合法定要求的辦公室印章,進行簽署。 3.強調電子公證應留存之紀錄內容,並非電子文件,而應留存文件的類型、標題及描述等規定。 跨境或電子交易已逐漸成為主流交易方式,而透過現行電子公證制度,雖然能夠強化電子或實體文件的可信性,惟公證制度實際上僅能針對公證當下的文件內容,提供擔保效力。若企業需要確保在公證前,相關文件內容未經偽變造,則必須在文件生成後落實適當資料管理措施。與此同時,公證人基於法規要求,對於經公證的電子、書面文件或公證紀錄等,負有法定保存或保密義務。若相關文件或紀錄發生外洩、外流等問題時,公證人除須負擔契約損害賠償責任外,甚至可能被科以刑責。因此,不論企業或公證人均可參考「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,建立系統性的資料管理機制或強化既有管理機制,避免發生資料偽變造或外洩等問題。 本文同步刊登於TIPS網(https://www.tips.org.tw)

法蘭克福最高法院判決「不好喝保證退費」電視廣告違反「不正競爭防止法

  法蘭克福最高法院在2006年10月19日對於一則「不好喝保證退費」電視廣告,判決被告對消費者因未盡到資訊告知義務(Informationspflicht)而違反不正競爭防止法(UWG)。   被告在一則促銷其所生產之礦泉水電視廣告中,打上「不好喝保證退費」等標語,但關於詳細退費資訊在電視廣告中並無說明,進一步的退費資訊,如退費條件、如何退費等,是黏在寶特瓶瓶身,需待消費者將此標籤撕下,才得以看到相關的退費資訊。原告是符合不正競爭防止法(UWG)第8條第3項第2款「以促進工商利益為目的而具備權利能力之工商團體」(Wettwerbsverband);原告認為被告違反「不正競爭防止法(UWG)」第4條第4款之規定:「未清楚標示引起消費者購買決心之促銷佸動的條件」。   法蘭克福最高法院(OLG Frankfurt a.M.)首先確認被告所刊登之「不好喝保證退費」電視廣告已經符合不正競爭防止法第4條第4款「促銷活動」之構成要件。再者,法院認為在被告所刊登之電視廣告及附在產品瓶身之退費條件標籤並不足以使消費者明確得知退費資訊。被告抗辯,基於現實因素,並無法將具體的保證退費條件一一細數在電視廣告中;惟法蘭克福最高法院認為,即使消費者可以透過其他管道得到相關的退費資訊,亦無法補正被告在電視廣告中未盡到告知義務之缺失。 對於此種類似噱頭之電子媒體行銷手法,是否可以只在產品瓶身明示退費規則,而在電子媒體廣告中忽略不提,是否有不實廣告及消費者權益如何保障等問題,都值得注意。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

TOP