歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。

  該指引並進一步指出人工智慧應遵守以下四項倫理原則:

(1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。

(2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。

(3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。

(4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

本文為「經濟部產業技術司科技專案成果」

※ 歐盟執委會提出「具可信度之人工智慧倫理指引」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8236&no=55&tp=5 (最後瀏覽日:2026/01/10)
引註此篇文章
你可能還會想看
國家技術標準之制定政策-由英國BSI觀國家技術標準制定政策

國家技術標準之制定政策 -由英國BSI觀國家技術標準制定政策 科技法律研究所 法律研究員 徐維佑 2014年12月03日 壹、前言   所謂技術標準(standards),指透過法規、私人企業、或者產業慣例形成的統一技術或特定規格,包括重量、大小、品質、材料或技術特徵(technical specifications),以使商品、服務、製造或製造程序方法能有共通的設計或相容性[1];由特定標準制定組織要求市場上商品或服務應符合一定品質者,亦為技術標準,例如確保農產品符合人體食用的健康安全標準。   制定技術標準不但具有降低生產成本、促進創新、加強消費者選擇性、增進公共健康及安全等優點,更是國際貿易的基礎。以技術日新月異的ICT資訊通信產業而言,標準更是搶佔市場的利器。 貳、英國國家標準制定政策   成立於西元1901年之英國標準協會(British Standards Institution,以下簡稱BSI)為英國標準制定組織,亦是全球第一個國家標準機構,專門提供企業解決方案,將最佳實務模式(best practice)轉換成日常表現標準。BSI非政府機構,但透過與英國政府商業、創新與技術部門(Department for Business, Innovation and Skills, BIS)簽訂備忘錄,BSI成為英國國家標準制定組織,而其特色與任務大致如下: 一、以整體產業為考量之標準制定機構   BSI標準制定業務範圍[2],除國家、區域、國際標準外,亦為私人企業、企業聯盟制定企業內部或企業聯盟間私人標準。標準制定之作法,係由產業界提名各領域之專業人員,及少數之政府部會官員成立標準制定委員會,各委員並非代表公司立場,而係以整體產業最有利立場參與會議;而BIS政府官員功能僅為傳達目前政府部會投入發展方向;標準制定委員會下,則設有技術委員會,委員各為特定技術領域之專家。BSI的原則為取得各界意見的平衡,在技術委員會成員組成上會避免單一勢力獨大,並盡力避免標準中包含特定權利人之智慧財產。 二、協助技術發展之階段式標準制定工作   BSI對於英國國內之技術研究、發展活動,採階段式引導標準化制定工作: 1、基礎研究階段:即早整合各利害關係人共識,建立共同發展對話基礎; 2、驗證技術可行性階段:藉由建立專家小組,發展初期測試方法與安全管理之共同觀點; 3、技術整合階段:即早為市場作準備,統一規格與測試方法,以及日後之技術升級方法; 4、原型製作階段:建立產業間行為準則,同時廣納消費者觀點,提昇該技術於市場之接受度; 5、應用測試、系統驗證階段:連結該技術與市場上產品、或其他服務、亦或其他標準組織制定之標準。   值得強調的是,BSI於研究發展活動各階段制定之標準提案草案皆會公佈於網站上,提供平台予大眾針對草案表示意見。 三、快速形成產業標準之PAS共通規範   BSI設有「可公開獲得的規範(publicly available specification, PAS)[3]」,相較於一般國家標準、國際標準,開發PAS時程較短,其目的為在英國國家標準或國際標準形成前,作為提早提供市場參考、使用之共通規範,國際標準如ISO亦有此制度。當技術共通規範成為PAS後,每3年接受技術委員會確認是否延續,或轉將其提案為國際標準。   私人企業可向BSI付費委託發展PAS共通規範。BSI會派專業人員指導企業如何撰寫PAS共通規範提案相關文件,集合內部專家團隊協助完成PAS共通規範提案。完成後對外召集內外部專家檢視PAS提案,包括標準制定委員會成員、政府官員、相關產業人員與消費者團體,並將檢視結果建議回饋給BSI內部專家團隊決定最終版本,公佈予給各界參考使用,公佈後之成果亦作為日後發展國家標準、國際標準之基礎。 參、結論   英國國家標準制定組織BSI,不遺餘力的協助產業自願性形成共識作為國家標準主軸,由產業推舉之專業人員與政府各領域官員作為技術委員會成員,平衡各界意見以整體產業發展為考量。藉由研究發展各階段性標準化工作,公開標準草案廣納各界意見,並盡力避免標準包含特定人之智慧財產權。並且,BSI協助國內企業發展PAS共通規範,除加速國內產業共識的形成外,更建立發展國際標準之良好基礎,摃動英國產業發展,並保障社會、環境、消費者之權益,值得我國學習。 [1]Mark A. Lemley, Intellectual Property Rights and Standard-Setting Organizations, 90 Calif. L. Rev. 1889, 1910-1911 (2002), available at http://scholarship.law.berkeley.edu/cgi/viewcontent.cgi?article=1392&context=californialawreview (last visited Aug. 28, 2014) [2]筆者親自訪談Daniel Mansfield政策主任,BSI Group總部,英國倫敦(2014/10/15)。 [3]ISO, ISO/PAS Publicly Available Specification (2014), http://www.iso.org/iso/home/standards_development/deliverables-all.htm?type=pas (last visited: 2014/10/01)

美國衛生及公共服務部提出策略草案,以緩解健康資訊科技對醫護人員所造成的負擔

  美國衛生及公共服務部(U.S. Department of Health and Human Services, HHS)依21世紀醫療法(21st Century Cures Act)於2018年11月28日公布由國家健康資訊技術協調辦公室(Office of the National Coordinator for Health Information Technology, ONC)與美國聯邦醫療保險和補助服務中心(Centers for Medicare & Medicaid Services, CMS)共同起草的「減輕使用健康資訊科技及電子健康紀錄所造成的管制與行政負擔之策略(Strategy on Reducing Regulatory and Administrative Burden Relating to the Use of Health IT and EHRs)」草案,以緩解健康資訊科技(Health Information Technology)於臨床使用的負擔。   雖然資通訊科技的進步促進許多產業的發展,卻在醫療產業造成應用上的問題,如臨床醫師會花費更多的時間、人力成本於登載電子健康紀錄,而壓縮與患者溝通的時間。為改善這些問題,此草案針對臨床紀錄建檔(Clinical Documentation)、健康資訊科技的可用性與使用者經驗(Health IT Usability and the User Experience)、電子健康紀錄報告(EHR Reporting)、及公共衛生報告(Public Health Reporting)四大議題提出相對應的策略及建議採用的措施。並以三個主要方向為討論主軸:降低臨床醫師紀錄患者健康資訊所耗費的人力時間成本、降低臨床醫師、醫院與健康照護機構(health care organizations)為達到報告規範標準而耗費的人力時間成本、及促進電子健康紀錄在使用上的功能性與直覺性(functionality and intuitiveness),以期能促進醫病溝通,並進一步完善健康照護環境。此草案在2019年1月28日前開放公眾提出建議,並預計於2019年年底公布最終版本。

安全至上 監看有理?-論工作場所電子郵件監看法制爭議

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

TOP