強制蒐集人體生物資料的人權標準-聯合國人權事務委員會的見解

刊登期別
第28卷,第11期,2016年11月
 
隸屬計畫成果
自主研究
 

※ 強制蒐集人體生物資料的人權標準-聯合國人權事務委員會的見解, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7760&no=55&tp=1 (最後瀏覽日:2026/03/30)
引註此篇文章
你可能還會想看
歐盟智慧財產局公布2020年智財侵權狀況報告

  歐盟智慧財產局(European Union Intellectual Property Office)於今(2020)年第三季公布最新智財侵權狀況報告,研究報告為其智庫「歐盟智慧財產權侵權觀察平台(The European Union Observatory on Infringements of Intellectual Property Rights)」所執行,並結合經濟合作暨發展組織(Organization for Economic Cooperation and Development)之數據資料,每年以不同主題呈現當年世界智財侵權狀況。今年以「智財權為何重要、智財侵權與打擊仿冒之戰爭」為主題,重點如下: 智財密集產業對歐盟經濟貢獻占整體GDP的45%、就業人數占歐盟就業人口的29%、出口貨物量占96%。 企業對智財的重視比例增高,重視智財的企業雇員平均收入較不重視智財權者高出32%;運用智財於營運策略的中小企業成長潛力高於無智財權者,如依權利運用類型區分,其成長率分別是10%(商標)、16%(商標結合專利)、27%(商標與設計權),以及33%(三種權利組合)。 全球仿冒品占其貿易總量約3.3%,市值高達1,210億歐元。 除日常藥品,抗生素、癌症或心臟疾病藥物仿冒情形均趨於嚴重;2019年爆發新冠肺炎後,偽造商更是將仿冒移轉至檢測試劑與個人防護用品。   尤其進入AI與5G時代後,智財密集產業對世界經濟貢獻度可望逐年上升,但侵權狀況恐怕亦同,咎因於該產業之興盛與背後龐大的潛在利益。因此持續推動建立企業的智財意識與防護能力,有其必要性,以助於提升產業發展潛力與整體營運獲利。

加拿大電信主管機關發布新的電信監管政策

  加拿大廣播電視和電信委員會(Canadian Radio-television and Telecommunications Commission, 以下稱CRTC)於去(2016)年12月21日發布電信監管政策(Telecom Regulatory Policy CRTC 2016-496, 以下稱Policy 496),該政策除聲明寬頻連網服務(broadband Internet access services)是基本電信服務(basic telecommunications service, 以下稱BTS)外,同時也透過新基金的設立,矢志達成目標。   新基金欲達成的普及服務目標(universal service objective)為:「所有加國國民,不論在都市、市郊與偏遠地區,都能透過固定通信綜合網路業務(以下稱固網)與行動通信網路業務(以下稱行網)近用語音及寬頻連網服務(Canadians, in urban areas as well as in rural and remote areas have access to voice and broadband Internet access services, on both fixed and mobile wireless networks.)」。Policy 496的發布,顯示CRTC監管架構的重點從原先的有線語音服務(wireline voice services),移轉到寬頻服務(broadband service, 以下稱BS)。因此,新制的BTS定義即含括此兩種服務模式;同時,CRTC也訂定了下列標準以驗證普及服務目標的達成狀況: 1. 加國家用與商用之固網寬頻服務訂戶至少可近用下載速率50Mbps/上傳速率10Mbps之網路(此指實際傳輸速率)。 2. 加國家用與商用消費者,於申辦固網寬頻服務時,有數據用量不受限(unlimited data allowance)的方案可供選擇。 3. 最新部署的行網技術(現為長期演進技術,Long Term Evolution)應不只可於家用、商用用戶端使用,也應盡可能擴及加國主要交通幹道。   新基金除預計為那些尚未符合上述標準之地區(通常為偏遠或落後地區)的相關計畫,於前五年給予總計七億五千萬加幣的資金挹注外,同時也會和現行及未來的公有基金、私人投資互補,並由第三方單位獨立、公平管理。   雖然CRTC於新的電信監管政策訂定的固網下載速率標準較多數國家為高(美國、澳洲25M;歐洲平均設在30M;德國為50M),但截至2015年為止,加國全境已有82%的民眾可接取傳輸速率達50M/10M之固網寬頻服務;因此CRTC主席Jean-Pierre Blais表示,這樣的標準設定其實相當實際。儘管Policy 496的釋出表達了CRTC將以合適的方式達成其政策目標的立場,但BS的普及狀況與偏遠地區的連網障礙是否確實排除,所有利害關係人都扮演重要的角色。

英國Ofcom公佈光纖網路備援電池之管制指引

  因預期超高速網路在英國將被廣泛佈建,Ofcom於2011年6月啟動諮詢程序,徵詢各界光纖網路備援電池的管制指引,以確保消費者的緊急電話服務;並於同年12月公佈諮詢結果與更新管制指引。   英國境內光纖到終端(FTTP)服務的覆蓋率已達到58%,雖得以提供消費者更高速的上網與影音內容,但卻有停電時無法運作的先天缺陷。由於傳統電話運作所需的電力係經由業者機房透過銅絞線供應,故即便消費者終端停電,仍能緊急電話。因此Ofcom曾於2009年要求公眾電話業者(PATS)確保消費者終端有維持供電4小時以上的備援電池,以保障民眾的身家安全。而此項管制則是納入ECN/ECS業者之第3項一般條件的管制中,業者有因而有遵守的義務。   此次徵詢結果,Ofcom確立了以下兩點管制指引: 1. PATS必須確保提供備援電池:PATS若由消費者選擇是否安裝備援電池,將被認為不符義務。若PATS選擇由消費者負擔更換電池之責任,應提供適切指引並確保易於取得電池;若責任由PATS承擔,則應建立適切處理程序。 2. 備援電池最低供電時數降為1小時:主要理由為英國大部分的斷電事件都不超過1小時;且行動電話相當普及,增加了安全保障。而備援電力降為1小時後,將使其電池更輕便和更易分離,因而更易於產製購買、取得與安裝。不過對於歷史上曾發生斷電超過1小時的家戶,PATS仍有義務確保較長時間的備援電力。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

TOP