歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下:

  1. 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。
  2. 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。
  3. 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。
  4. 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。
  5. 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。
  6. 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 
  7. 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

相關附件
你可能會想參加
※ 歐盟議會發布《可信賴人工智慧倫理準則》, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?no=57&tp=1&d=8248 (最後瀏覽日:2024/04/29)
引註此篇文章
你可能還會想看
英國資訊委員辦公室(ICO)針對COVID-19接觸史追蹤應用程式框架,發布意見報告

  英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2020年4月17日,依據英國資料保護法(Data Protection Act 2018)第115條第3項第b款之授權,針對2020年4月10日Apple和Google因應COVID-19疫情發表之「接觸史追蹤應用程式框架」(Contacting Tracing Framework, CTF),發布意見報告。報告認為,由於CTF具備以下三大特性:(1)不會在裝置間交換個人資料,如帳戶資訊或使用者名稱;(2)配對過程僅在裝置本身進行,並不會有如應用程式伺服器之第三方介入;(3)不需要地理位置資訊就能順利運作,因此符合英國資料保護法第57條有關「透過設計並作為預設以保護個人資料」(Data protection by design and default)之規定。   縱然CTF符合英國資料保護法之規定,英國資訊委員辦公室仍於報告中指出:「未來軟體開發商若於接觸史追蹤應用程式中使用CTF技術,該應用程式於處理使用者之個人資料時,仍應隨時符合英國資料保護法關於透過設計並作為預設以保護個人資料之規定。」COVID-19疫情席捲全球,如何於「掌握感染者接觸史以預防疫情擴散」與「保障個人資料及隱私」間取得平衡,實為各國政府需考量之重要議題。我國人工智慧實驗室於2020年4月開發之「社交距離App」,便是使用類似Apple和Google之CTF技術。此份英國資訊委員辦公室意見報告,等於針對社交距離App是否侵害隱私權益,提供相當解答與指引。

美國加州機動車輛管理局3月10日發布無人駕駛車輛管理方案

  無人駕駛汽車、電腦駕駛汽車或輪式移動機器人,皆屬自動化載具的一種,具有傳統汽車的運輸能力。而作為自動化載具,自動駕駛汽車不需要人為操作即能感測其環境及導航。目前無人車仍未全面商用化,大多數均為原型機及展示系統,部份可靠技術才下放至商用車型,但有關於自駕車逐漸成為現實,已經引起了很多有關於道德與法律上的討論。   無人駕駛車輛若能夠變得商用化,將可能對整體社會造成破壞性創新的重大影響。然而,在商品化之前的實際道路測試是自動駕駛車輛開發過程非常重要的一環,是否允許自動駕駛車輛實際上路測試為各地交通主管機關之職責。因此,為了保障公共安全與推廣創新,為美國加州機動車輛管理局(Department of Motor vehicles ,下稱加州DMV)便自2015年12月公布無人駕駛車輛規範草案後,歷經2016年9月的修正,於2017年3月10日正式公布無人駕駛車輛管理規範。   美國加州申請自動駕駛車輛上路測試規定係依據加州汽車法規 (California Vehicle Code)38750 中之條款 3.7所訂定,依照加州DMV規畫,在社區內和高速公路上進行測試的自動駕駛車,仍需與傳統汽車一樣,具有方向盤與煞車踏板,而且駕駛座上亦需有人隨時待命應付緊急情況發生。此外,無人駕駛車輛尚必須有人進行遠距監控,並且能在緊急情況發生時安全停靠路邊。   截至2017年3月8日,已有27家公司獲得加州DMV許可,在道路上測試無人駕駛車輛,且這些車輛迄今只造成少數事故。加州DMV公布無人駕駛車輛管理規範後,還將於2017年4月24日舉行公聽會持續蒐集意見,研擬規範修改內容,以符合實際需求。   人駕駛車輛是汽車產業未來發展的趨勢之一,我國於不久的將來亦可能面臨有無人駕駛車輛在國內進行實際道路測試的需求。然而,我國地狹人稠,交通狀況複雜,且國人守法觀念尚有加強空間,確也增添無人駕駛車輛在國內道路測試的挑戰性,以及主管機關於受理測試申請之困難度。因此,加州DMV所公布之無人駕駛車輛管理規範之後續發展,值得吾人持續關注。

行動通信事業提供視訊服務之法律議題研究

澳洲發布國家身分韌性戰略

所謂「身分」(Identity)是「特徵」(characteristics)或「屬性」(attributes)的組合,可讓個人在特定環境中與其他人區分開來,以證明自己的身分,例如出生日期和地點、臉部圖像等。澳洲政府有鑑於數位經濟的快速成長,線上身分驗證比實體身分驗證更為頻繁,促使犯罪人竊取和濫用身分資訊與資格證明(credentials),使得越來越多人面臨網路犯罪和詐欺的風險,澳洲在2021年時更因為身分竊盜事件橫行,造成超過18億美元的經濟損失。 為此,澳洲資料和數位部長會議(Data and Digital Ministers Meeting, DDMM)於2023年6月23日發布「國家身分韌性戰略」(National Strategy for Identity Resilience),以取代2012年國家身分安全戰略(National Identity Security Strategy),宣示澳洲政府加強身分基礎設施和對身分竊盜的韌性與復原力,推動澳洲各州、領地(territory)和聯邦(Commonwealth)採用全國一致的身分韌性方法,使得個人身分難以被竊取,縱然不幸遭竊取,受害人亦能夠輕易自身分犯罪中恢復身分。 該戰略由十項原則組成,包含:(1)無縫接軌的聯邦、州和領地數位身分系統;(2)具包容性的身分辨識機制;(3)個人與公私部門都有各自角色;(4)制定國家實體與數位資格證明標準;(5)建立生物辨識和經同意的身分驗證;(6)便利個人跨機構更新身分資訊;(7)更少的資料蒐集與保存;(8)明確的資料分享協議;(9)資格證明的一致撤銷和重新簽發;(10)明確的問責與責任。搭配短、中、長期的實施規畫,循序漸進地加強與一制化澳洲跨司法管轄區的身分安全管理機制。

TOP