英國倫理機構針對海量資料(big data)之使用展開公眾諮詢調查

  納菲爾德生物倫理學理事會(Nuffield Council on Bioethics)成立於1991年,是一家英國的獨立慈善機構,致力於考察在生物與醫學領域新近研究發展中所可能牽涉的各項倫理議題。由該理事會所發表的報告極具影響力,往往成為官方在政策決策時之依據。

  有鑑於近年big data與個人生物和健康資料的分析使用,在生物醫學研究中引起廣泛的爭議討論,此間雖然不乏學者論理著述,但對社會層面的實質影響卻較少實證調查研究。Nuffield Council on Bioethics於日前發布一項為期三個月(2013/10/17~2014/01/10)的生物暨健康資料之連結使用公眾諮詢調查計畫(The linking and use of biological and health data – Open consultation)。此項計畫之目的在於,瞭解更多有關資料連結與使用時所可能導致之傷害或可能的有利發展。並研析適當的治理模式和法律措施,使得民眾隱私權保護與相關研究之合法性得以兼顧,俾使更多人受益。

  為執行此項計畫,Nuffield Council on Bioethics延攬健康照護資訊技術、資訊治理、健康研究、臨床診療、倫理和法律等領域專家組成計畫工作小組,由工作小組廣泛地蒐集來自民眾與各類型組織的觀點,探詢當民眾在面對個人的生物與健康資訊相互連結、分析時,民眾對當中所牽涉倫理議題之看法。該項公眾諮詢調查將針對以下重點進行:

1.生物醫學資料之特殊意義
2.新的隱私權議題
3.資料科學和資訊技術發展所造成之影響
4.在研究中使用已連結的生物醫學資料所可能帶來的影響
5.在醫學臨床上使用已連結的資料所可能帶來的影響
6.使用生物醫學研究和健康照護以外的生物醫學資料所可能帶來的影響
7.探討能夠在倫理上支持連結生物醫學資料的法律和治理機制

  由於Nuffield Council on Bioethics被視為英國科學界的倫理監察員、政府智囊團,因此未來調查報告發布後對相關政府政策所可能產生的影響,當值得我們持續關注。

相關連結
相關附件
※ 英國倫理機構針對海量資料(big data)之使用展開公眾諮詢調查, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6364&no=67&tp=1 (最後瀏覽日:2026/04/26)
引註此篇文章
你可能還會想看
從廣播電視節目概念之數位質變思考我國廣電法制之規範客體

IBM同意中國大陸政府檢視部份產品原始碼

  近年來中國大陸政府為了資安考量,制訂相關法規要求外國科技公司進入中國大陸市場時必須提供程式原始碼,避免他方非法(例如利用病毒)透過電腦軟體進入中國大陸的系統和資料。   IBM公司近日發表聲明,允許特定國家在其嚴格的監控下,檢視其部份產品的軟體原始碼,確保產品沒有資訊安全的漏洞,中國大陸也在這些特定國家之列。這是美國重要的科技大廠,首次公開同意遵守中國大陸政府對於外國技術的資訊安全審查,然而此舉讓美國政府與其他矽谷科技公司頗有微詞。   IBM開放檢視其程式碼的對象為中華人民共和國工業與信息化部。IBM在聲明中表示,原始碼的檢視必須在IBM公司內,於無網路連線並受IBM安全應用程式監控的環境下進行,並保證這些軟體原始碼不會被釋出、被複製,或以任何方式改作。在嚴格的環境和時間限制下,IBM不會讓中國大陸政府有機會接觸其客戶資料庫,也不會涉及後門程式(back door)。至於會提供哪些產品的原始碼檢視,或中國大陸官方可檢視的時間有多長,IBM尚無明確說明。事實上IBM並非唯一提供程式碼的科技公司,微軟公司早在2003年即允許中國大陸、俄國、英國等國家檢視微軟Windows部分產品的原始碼。   有市場分析公司指出,IBM為降低智慧財產權被複製的風險,所釋出的原始碼可能只涉及基本功能,不包含專有的演算碼,且像IBM此類的公司,應該擁有閉源軟體(closed-source)或特別的軟體以嚴密地維護底層的原始碼,避免中國大陸政府藉由檢視原始碼執行反向工程(Reverse Engineering)。   IBM公司願意提供中國大陸政府檢視部分產品原始碼,目的在於展示其產品安全性,試圖擴展IBM在中國大陸的商業版圖。IBM旗下的雲端運算平台Bluemis未來將與中國大陸的數據中心服務公司—北京世紀互聯寬帶數據中心有限公司合作。該公司同時也是微軟在中國大陸的合作夥伴。

歐盟發布新人工智慧規範,以風險程度判斷防止科技濫用

  歐盟執委會於2021年4月21日提出「人工智慧規則」(AI regulation)草案,成為第一個結合人工智慧法律架構及「歐盟人工智慧協調計畫」(Coordinated Plan on AI)的法律規範。規範主要係延續其2020年提出的「人工智慧白皮書」(White Paper on Artificial Intelligence)及「歐盟資料策略」(European Data Strategy),達到為避免人工智慧科技對人民基本權產生侵害,而提出此保護規範。   「人工智慧規則」也依原白皮書中所設的風險程度判斷法(risk-based approach)為標準,將科技運用依風險程度區分為:不可被接受風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)及最小風險(Minimal risk)。   「不可被接受的風險」中全面禁止科技運用在任何違反歐盟價值及基本人權,或對歐盟人民有造成明顯隱私風險侵害上。如政府對人民進行「社會評分」制度或鼓勵兒童為危險行為的語音系統玩具等都屬於其範疇。   在「高風險」運用上,除了作為安全設備的系統及附件中所提出型態外,另將所有的「遠端生物辨識系統」(remote biometric identification systems)列入其中。規定原則上禁止執法機構於公眾場合使用相關的生物辨識系統,例外僅在有目的必要性時,才得使用,像尋找失蹤兒童、防止恐怖攻擊等。   而在為資料蒐集行為時,除對蒐集、分析行為有告知義務外,也應告知系統資料的準確性、安全性等,要求高度透明化(Transparency obligations)。不只是前述的不可被接受風險及高風險適用外,有限風險運用中的人工智慧聊天系統也需要在實際和系統互動前有充足的告知行為,以確保資料主體對資料蒐集及利用之情事有充足的認知。   在此新人工智慧規範中仍有許多部份需要加強與討論,但仍期望在2022年能發展到生效階段,以對人工智慧科技的應用多一層保障。

以色列發布人工智慧監管與道德政策

以色列創新、科學及技術部(Ministry of Innovation, Science and Technology)於2023年12月17日公布以色列首個關於人工智慧的監管和道德政策,在各行各業將人工智慧作為未來發展方向的趨勢下,以多元、協作、原則、創新的理念為其導向,為了化解偏見、人類監督、可解釋性、透明度、安全、問責和隱私所帶來的衝擊,以色列整合政府部門、民間組織、學術界及私部門互相合作制定政策,以求解決人工智慧的七個挑戰,帶領以色列與國際接軌。 該人工智慧政策提出具體政策方向以制定措施,其中具有特色的三項為: 1. 軟性監管:人工智慧政策採取軟性監管制度,以OECD人工智慧原則(OECD AI Principles)為基礎,採行制定標準、監督與自律等方式促進人工智慧永續發展,注重以人為本的道德原則,強調創新、平等、可靠性、問責性。 2. 人工智慧政策協調中心(AI Policy Coordination Center):邀集專家學者成立跨部門的人工智慧政策協調中心,進行人工智慧政策研議,向政府部門監管提出建言,為人工智慧的開發使用建立風險管理,並代表國家參與國際論壇。 3. 公眾參與及國際合作:政府機關與監管機構舉辦人工智慧論壇,提出人工智慧的議題與挑戰,邀請相關人士參與討論,並積極參與國際標準制定,進行國際合作。 我國科技部在2019年邀集各領域專家學者研議提出「人工智慧科研發展指引」,強調以人為本、永續發展、多元包容為核心,以八大指引為標竿,推動人工智慧發展。我國已有跨部會溝通會議對於人工智慧法制政策進行研討,可觀察各國軟性監管措施作為我國人工智慧風險管理及產業政策參考,與國際脈動建立連結。

TOP