歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。
該指引並進一步指出人工智慧應遵守以下四項倫理原則:
(1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。
(2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。
(3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。
(4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。
本文為「經濟部產業技術司科技專案成果」
2014年2月12日,美國發表「網路安全框架(Cybersecurity Framework)」,該框架係由美國政府、企業及民間機構花費一年的時間共同發展而成,其蒐集了全球現有的標準、指引與最佳實務作法,最後由國家標準技術局(National Institute of Standard and Technology, NIST)彙整後所提出。 本框架主要可分成三大部份: 1.框架核心(Framework Core) 框架核心包括辨識(Identify)、保護( Protect)、偵測( Detect)、應變( Respond)、與復原( Recover)等五項功能。這五項功能組成網路安全管理的生命週期,藉由這五項功能的要求項目與參考資訊的搭配運用,可使組織順利進行網路安全管理。 2. 框架實作等級(Framework Implementation Tiers) 共分成局部(Partial)、風險知悉(Risk Informed)、可重複實施(Repeatable)、合適(Adaptive)四個等級。組織可以透過對風險管理流程、整合風險管理計畫以及外部參與等三個面向的觀察,瞭解組織目前的安全防護等級。 3. 框架側寫(Framework Profile) 框架側寫係組織依照本框架實際操作後所產出的結果,可以協助組織依據其企業需求、風險容忍度,決定資源配置的優先順序,進一步調整其網路安全活動。 此一安全框架旨在提供整體規劃藍圖予尚未建立網路安全架構的組織參考,而針對已有建立網路安全架構者,該框架並未意圖取代組織原先的風險管理程序和網路安全計畫,而係希望協助公、私部門改善資通訊科技和工業控制系統風險管理的能力。
英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。
智慧綠建築推動方案之修正—新增公有新建建築物應符合綠建築指標 美國FDA計畫舉辦3D列印技術於醫療運用下之法制探討會議隨著3D印表機的價格日趨親民、3D列印設計檔案於網際網路交流越趨頻繁,以及預期3D列印技術在未來的應用會更加精進與複雜化,3D列印技術於醫療器材製造面所帶來的影響,已經逐漸引起美國食品藥物管理局(FDA)的關注。 在近期FDA Voice Blog posting中,FDA注意到使用3D列印所製造出的醫療器材已經使用於FDA所批准的臨床干預行為(FDA-cleared clinical interventions),並預料未來將會有更多3D列印醫療器材投入;同時,FDA科學及工程實驗辦公室(FDA’s Office of Science and Engineering Laboratories)也對於3D列印技術就醫療器材製造所帶來的影響進行調查,且CDRH功能表現與器材使用實驗室(CDRH’s Functional Performance and Device Use Laboratory)也正開發與採用電腦模組化方法來評估小規模設計變更於醫療器材使用安全性所帶來的影響。此外,固體力學實驗室(Laboratory of Solid Mechanics)也正著手研究3D列印素材於列印過程中對於醫療器材耐久性與堅固性所帶來的影響。 對於3D列印就醫療器材製造所帶來的法制面挑戰,在Focus noted in August 2013中,其論及的問題包含:藉由3D列印所製造的醫療器材,由於其未經由品質檢證是否不應將其視為是醫療器材?3D列印醫療器材是否需於FDA註冊登記?於網路分享的3D列印設計檔案,由於未事先做出醫療器材風險與效益分析,FDA是否應將其視為是未授權推廣等問題。 針對3D列印於醫療器材製造所帶來的影響,CDRH預計近期推出相關的管理指引,然FDA認為在該管理指引推出前,必須先行召開公聽會來援引公眾意見作為該管理指引的建議參考。而就該公聽會所討論的議題,主要依列印前、列印中與列印後區分三階段不同議題。列印前議題討論包含但不限於材料化學、物理特性、可回收性、部分重製性與過程有效性等;列印中議題討論包含但不限於列印過程特性、軟體使用、後製程序與額外加工等;列印後議題討論則包含但不限於清潔/多餘材料去除、消毒與生物相容性複雜度影響、最終裝置力學測定與檢證等議題。