日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論: 一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。 AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。 二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。
新加坡個人資料保護委員會發布資料保護專員之職能與培訓準則新加坡個人資料保護委員會(Personal Data Protection Commission, PDPC)於2019年7月17日發布資料保護專員之職能與培訓準則。基於新加坡個人資料保護法(Personal Data Protection Act 2012, PDPA)明文規範非公務機關必須設立至少一名資料保護長(Data Protection Officer, DPO),負責個資保護政策之制定落實、風險評鑑及個資事故處理等工作。為了使資料保護專業人員增強能力並於企業組織有效履行其職責,新加坡個人資料保護委員會就此特別發布此準則,將資料保護專員分為三種工作職能,九項專業能力,進而規劃相關培訓課程。 此準則使企業組織能就工作職能聘僱合適之資料保護專員,亦使相關專業人員能掌握清晰之職業生涯,確定自我能力與培訓課程之落差,進而調整有效實施組織之個人資料保護管理政策與流程。其分為資料保護專員、資料保護長、區域資料保護長,依據工作職能與職責區分如下: 一、 資料保護專員 需監視與評估組織之個人資料保護管理政策與程序,並確保其遵循新加坡個人資料保護法。 識別個人資料之風險,並提出風險管控之措施。 提供組織個人資料保護政策之實施與實踐證據。 定期檢視審核,分析現況並矯正改善。 識別並規劃利害關係人之需求與利益。 二、 資料保護長 制定並審查個人資料管理計劃。 根據組織職能,視需求與流程,執行個人資料保護與風險評鑑,並解決相關業務風險。 制定培訓計劃,舉辦個人資料保護政策與流程之教育訓練。 確保組織內部個人資料保護之意識。 根據業務營運與個資法遵要求之落差評估,並建立合規性流程。 透過客戶對隱私與個人資料保護之要求,做為日後促進資料創新之實施。 三、 區域資料保護長 監督資料傳輸活動,並提供個人資料保護法之領導指南。 建立區域創新之資料保護策略。 減少區域內之個資事故。 於資料創新之運用提供戰略性,為組織創造業務價值。 評估新興趨勢與科技,如隱私增強技術、雲端運算、區塊鏈、網絡安全之風險與可行性。 針對上述工作職能與職責,結合所需之專業能力,包括個人資料管理、風險評鑑管理、個資事故緊急應變、利害關係人管理、個人資料稽核認證、個人資料治理、個人資料保護之倫理、資料共享與創新思維,規劃基礎個人資料保護相關課程與進階資料創新課程,使其個人資料保護制度更專業具有規模。目前我國對於資料保護專員並無相關立法規範,若未來修法新加坡個人資料保護委員會之做法亦值參酌。
歐盟聯合研究中心公布智慧電網計畫及智慧電表部署的成本效益分析指導原則智慧電網是歐洲未來低碳能源政策的核心議題,但要更新整個電力系統所費不貲,根據國際能源署(International Energy Agency, IEA)研究指出,從2007年至2030年,若要從生產、輸電到配電全部更新,需要花費1.5兆歐元(EUR 1.5 trillion),故基於投資的考量,有必要依據電網示範計畫所獲得的實際數據,來評估智慧電網發展的成本效益。因此,歐盟聯合研究中心(Joint Research Centre, JRC)分析了歐洲過去及現在正在進行的智慧電網示範計畫的成果,提出全面性的成本效益分析(cost-benefit analysis, CBA)評估架構,並選定葡萄牙InovGrid計畫作為參考實例以調整相關內容,於2012年初公布「智慧電網計畫的成本效益分析指導原則(Guidelines for conduction a cost-benefit analysis of Smart Grid projects,以下簡稱「智慧電網CBA指導原則」)」。 這是第一次具體的將CBA使用在智慧電網的實際案例評估之上,「智慧電網CBA指導原則」是為協助使用者分析不同地區的考量因素,以瞭解利益與成本,並分析關鍵要素,包括計畫的規模大小(例如每年接受服務的消費者、能源消費等)、工程特色(例如所採用的技術、主要設備的功能性)、電網當地特色、利益關係者(哪些人的成本及利益應納入考慮)、計畫的明確目的及預期對社會經濟的衝擊,以瞭解像分散式能源整合的可能性、電價及租稅的衝擊、環境成本等。「智慧電網CBA指導原則」是在提供建議,依據電力研究機構(Electric Power Research Institute, EPRI)的研究框架,逐步地提供了評估架構,作為分析考量時的核對清單。由於納入了地區性因素的考量,因此分析的結果最終將取決於各計畫的開發者及相關決策者的專業判斷。 此外,JRC亦公布「智慧電表部署的成本效益分析指導原則(Guidelines for conduction a cost-benefit analysis of Smart Metering Deployment,以下簡稱「智慧電表CBA指導原則」)」。「智慧電表CBA指導原則」之內容主要提供會員國在評估智慧電表的部署時,有一套分析的標準。如同「智慧電網CBA指導原則」一般,「智慧電表CBA指導原則」亦考量計畫規模、工程特色、電網當地特色、利益關係者、計畫的明確目的及預期對社會經濟的衝擊等因素,但非針對不同地區提供細節性的指示,因此仍須仰賴各計畫的開發者及相關決策者的專業判斷,以評估智慧電表部署的可行性。
梵諦岡與IBM、微軟聯合呼籲對臉部辨識等侵入性技術進行監管2020年2月28日梵諦岡教宗與兩大科技巨頭IBM及微軟聯合簽署「羅馬呼籲AI倫理道德」文件,支持制定人工智慧(AI)發展倫理與道德規範,並特別呼籲應針對臉部辨識等侵入性技術進行監管。在聯合文件上特別提及臉部識別技術潛在之濫用風險,例如警察會使用臉部辨識系統調查犯罪行為、《財富》500強公司使用AI審查求職者,這兩個例子均具有潛在且高度之風險,使用不正確或是具有偏見之AI判斷均可能會造成傷害。誠如方濟各在致辭中說:「人工智慧記錄個人資料,並使用於商業或政治目的,而且通常是在個人不知情之情況下,這種不對稱,將使少數人了解我們的一切,但我們卻對他們一無所知,這將使批判性思維和對自由的自覺變得遲鈍,不平等現象急遽擴大,知識和財富在少數人手中累積,將對民主社會構成重大風險。」 此次會議希望在國家與國際層面上共同努力促進AI道德規範,並根據以下原則來發展和使用人工智慧。第一,良好的創新:人工智慧系統必須是可理解得,並且在包容性方面必須考慮到所有人的需求,以便每個人都能受益。第二,責任:設計和實施人工智慧者必須承擔責任和保持透明度。第三,公正性:避免根據偏見進行創造或採取行動,從而維護人類平等和尊嚴。第四,可靠性:人工智慧系統必須能夠可靠的運行。第五,安全和隱私:人工智慧系統必須安全運行並尊重用戶的隱私。 目前尚不清楚其他技術公司是否會簽署該文件,以及簽署人將如何實施,但教宗與兩大科技巨頭史無前例的合作,為人工智慧未來發展方向提供遠見卓識,能更加深入的去思考AI的道德意涵以及它將如何與人類更好的合作、互動,互利共生,相輔相成。