日本內閣於2018年6月15日決議組成跨部會之統合創新戰略推進會議,並於2019年3月29日發布AI戰略,其中的倫理面向為以人為本之AI社會原則(下稱AI社會原則),希冀藉有效安全的活用AI,推動「AI-Ready 社會」,以實現兼顧經濟發展與解決社會課題的「Society5.0」為最終目標。
為構築妥善應用人工智慧的社會,AI社會原則主張應尊重之價值理念如下:
(一) 尊重人類尊嚴的社會:AI應作為能激發人類發揮多樣能力和創造力的工具。
(二) 多元性和包容性的社會(Diversity & Inclusion):開發運用AI以共創多元幸福社會。
(三) 永續性的社會(Sustainability):透過AI強化科技,以創造能持續解決社會差距與環境問題的社會。
而AI社會原則核心內容為:
(一) 以人為本:AI使用不得違反憲法或國際保障之基本人權。
(二) AI知識(literacy)教育:提供必要的教育機會。
(三) 保護隱私:個人資料的流通及應用應妥適處理。
(四) 安全確保:把握風險與利益間之平衡,從整體提高社會安全性。
(五) 公平競爭確保:防止AI資源過度集中。
(六) 公平性、說明責任及透明性任。
(七) 創新:人才與研究皆須國際多樣化,並且建構產官學研AI合作平台。
歐盟執委會於今(2020)年2月19日發布「歐洲資料戰略」(A European strategy for data),宣示繼前一期「歐洲數位單一市場」戰略的基礎下,將於新一期戰略建立一個真正的歐洲資料空間及資料單一市場,以解鎖尚未被利用的個人資料及非個人資料,使資料能夠在歐盟內部、跨部門和跨領域自由流動,並使所有公部門、公民,或新創、中小、大企業都可存取資料及利用。 本戰略就此提出四大戰略行動,重點如下: 1、資料存取(Data Access)和利用的跨部門治理框架 (1)2020年第四季提出「共同歐洲資料空間」(common European data spaces)的治理立法框架:A.加強共同資料空間及其他跨公私部門資料利用方式的治理機制;B.於GDPR基礎下,基於科學研究目的利用敏感個資時,能較容易決定可以由誰如何利用哪些資料;以及使個人更容易同意其個資的公益目的利用。 (2)2021年第一季通過開放資料指令(Directive (EU) 2019/1024)的高價值資料集「施行細則/執行法」(implementing acts)。 (3)2021年提出《資料法》(Data Act)草案促進企業對政府的資料共享;以及解決現今企業間資料共享常遇到的障礙,例如多方合作建置資料時(如物聯網),釐清各方的資料使用權限及各自的法律責任。 2、推動方式:投資歐洲資料空間重大項目,以加強歐洲處理和使用資料的基礎設施及能力、加強資料互通性等。 3、加強個人資料管理:在GDPR第20條的可攜權(portability right)基礎下,於《資料法》賦權個人更能控制自己被政府及企業所掌握的個資,並使個人能自己決定由誰存取和利用。另外,將由數位歐洲計畫開發「個人資料空間」。 4、促進戰略性產業領域及公益領域的共同歐洲資料空間:歐盟執委會將協助建立包含「共同歐洲工業(製造)資料空間」(Common European industrial (manufacturing) data space)在內的9種領域共同歐洲資料空間,本戰略亦於附件介紹各領域的資料共享基礎背景。 另外,雖非戰略主軸,但文件內容及新聞稿皆提及,執委會將於2020年第四季提出《數位服務法》(Digital Services Act),為所有企業進入資料單一市場建立明確的規範、審查現有政策框架、加強線上平台的責任及保護基本權利。 總而言之,本戰略所欲推展的各項行動,將促進公民、企業組織、研究人員和公部門能更輕易的獲得和利用彼此的資料,進而確保歐盟成為資料驅動社會的模範和領導者。
智慧城市-美國最新政策發展美國政府在2015年9月14日發布,將投入超過1.6億美元(約台幣50億元)於新的「智慧城市計畫」(Smart Cities Initiative)。透過中央政府的研究,以及全美國超過二十個城市的合作,來共同著手城市主要面臨的問題,包含:減緩交通阻塞、對抗犯罪問題、促進經濟成長、對於氣候變遷影響的管理、改善城市服務的遞送問題等。此戰略主要有四個策略方案:(一)創造「智慧聯網」應用的試驗平台,並發展新的多部門合作模式;(二)致力於城市科技相關的活動,並打造城市之間的合作;(三)善用現有的中央政府資源;(四)追求國際間合作。 而在十月份,美國白宮公佈由國家經濟委員會(National Economic Council)與國家科學與技術政策辦公室(Office of Science and Technology Policy)共同完成的「美國創新戰略」(A Strategy for American Innovation)中,明確地指出美國國家的突破重點領域為:解決國家及全球性的挑戰(Tackling Grand Challenges)、精密醫療、健康照護、先進的運輸工具、智慧城市、乾淨能源與能源效率、教育科技等面向。此戰略報告係延續美國白宮於2011年,由相同組織單位所完成的「美國創新戰略-確保經濟發展與繁榮」(A Strategy for American Innovation – Securing Our Economic Growth and Prosperity),其中列舉出國家的目標政策為:能源改革、生物科技、太空探索、醫療健康與教育科技。相較下,十月份甫公佈的美國「創新戰略」則更明確的將「智慧城市」之發展設為重點政策。 美國政府將投入協助芝加哥(Chicago)「科技計畫」(Tech Plan)中的子計畫-「城市感測器專案」(Array of Things, AoT),發展當地下一代智慧聯網的基礎設施,包括運用內建Wi-Fi的感測器裝置路燈,使其能夠有照明的基本功能外,還能蒐集諸如人潮流量、天氣、濕度、空氣品質、亮度、聲音大小等數據。 在此戰略推動之下,美國主要之智慧城市發展的實例,如匹茲堡(Pittsburgh)的前導計畫(pilot project),係藉由交通網絡之間的交通號誌整合,得以優化地區性的交通吞吐量,讓平均降低將近百分之二十五的交通時間。另外,在肯塔基州(Kentucky)的最大城市-路易斯維爾(Louisville),利用具有感測功能之哮喘吸入器所蒐集的資料,統整出哮喘發生的「熱點」,以及空氣品質等級等其他環境因素,作為該州政府政策制定參考依據。
奈米產品蘊藏健康風險,其管理應更慎重許多天然或人造的成分被奈米化之後,物理和化學性質可能都會改變,今年三月底,在德國即出現一起疑似因為使用奈米科技製造的廁所清潔噴霧劑「魔術奈米」,陸續出現嚴重呼吸問題,被送往醫院診治,其中六人還因肺水腫住院的案例,可見奈米級產品的安全性應有更為審慎之把關。 在各式奈米級產品中,「添加顏料、金屬和化學藥劑,是奈米化妝品與保養品對人體健康的最大變數!」美國 FDA 規定, 1 到 100 奈米( nm )微粒的保養品、化妝品都算是奈米產品,用來防曬的二氧化鈦是最常被添加的金屬成分,傳統粗顆粒的防曬用品,利用二氧化鈦擋住紫外線傷害皮膚,但鈦成分變成超細微粒,進入皮膚底層後會不會沈澱、累積,衍生皮膚癌、中毒或過敏病變?或經由血液沈積在內臟?目前都沒有具公信力驗證單位可以說明。各式化妝品調色的顏料,以及美白等用途的化學藥劑也被奈米化,對塑造時下流行的「裸妝」效果,確實很有幫助,不過,一旦這些化學製成的奈米微粒粒徑小於 50 到 80 奈米,也就是小於角質細胞的間隙,就會對皮膚造成傷害。至於奈米化的蜜粉和粉餅,可能因為撲粉過程把奈米微粒吸入肺部,產生呼吸道病變,甚至有致命危機。因此,許多學者均強烈主張,化妝品、保養品要上市販售之前,必須完成醫學上的病理實驗,不要把人當白老鼠。 生活中已經有多種產品以奈米化之形式推出,例如:保養品、化妝品奈米化的速度很快,許多製造商推出的新保養品均號稱含有奈米微粒,可深入肌膚,達到防皺、除皺功效。但是,英國皇家學會和美國食品藥物管理局( FDA )相繼表示,醫學界對奈米微粒與肌膚相互作用的知識還相當貧乏,除了深入肌膚的功效有待驗證外,更要注意這些奈米微粒是否會對血液產生長期的影響。 奈米科技是否會步上基因改造食品的後塵,成為消費者對新科技存疑之另一項技術,值得注意。奈米科技在風險未被證實前,業者腳步走太快,而政府完全放手不管,一旦出現意外事故,就可能把這項新科技給毀了。故要求主管機關要有所作為呼聲已經陸續出現,繼英國皇家學會最早投入相關之健康風險研究後,美國消費者團體亦透過 petition 機制,要求 FDA 加強對奈米級產品之管理。
美國商務部國家電信和資訊管理局呼籲透過第三方評測提高AI系統透明度2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。 人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下: 1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。 2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。 3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。 4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如: (1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute); (2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure); (3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊; (4)培養第三方評測機構的專家人才。 5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。 6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。 7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。 8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。 NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。