美國白宮科學與技術政策辦公室(The White House’s Office of Science and Technology Policy , OSTP)於2020年1月9日發布「人工智慧應用管制指引」(Guidance for Regulation of Artificial Intelligence Application),為美國政府機關起草人工智慧規範並進行管制時提供指引,該指引內要求各機關之規範應遵循以下10項人工智慧原則:
一.公眾對AI之信任:政府對AI之管制或其他措施應促進AI之可靠性、健全性,且於應用上應具備可信性。
二.公共參與:政府應提供機會讓利害關係人參與AI管制規範立法程序。
三.科學實證與資訊品質:科學實證與資訊品質:政府機關發展AI之相關技術資訊,應透過公開且可驗證之方式提供給大眾參考,以提高大眾對AI之信任與協助政策制定。
四.風險分析與管理:應採取以風險為基礎之分析評估方法,確認哪些風險係可接受之風險,或那些風險代表無法接受之損害或所失利易大於預期利益。
五.利益與成本:政府於擬定相關規範時,應小心評估AI對於整體社會之利益,與預期外之效果。
六.彈性:法規應持續滾動檢視與調修以因應AI之創新應用。
七.公平且無歧視:政府應針對AI之應用與決策,考量公平與無歧視相關議題。
八.揭露與透明:透明度與揭露程序之建立可提升公眾對AI應用之信任。
九.安全:政府應特別注意AI系統內所儲存或傳輸資訊之安全與相關安全維護控制措施。
十.跨機關合作:政府各部會或機構間應相互合作與分享經驗,以確保AI相關政策之一致性與可預測性。
本文為「經濟部產業技術司科技專案成果」
澳洲國家交通委員會(National Transport Commission)與警覺、安全、生產力合作研究中心(Cooperative Research Centre for Alertness, Safety and Productivity ,Alertness CRC)於2016年12月攜手研究重型車輛駕駛員之疲勞駕駛影響,並特別探討科技設備檢測及因應的可行性,並著手研析重型車輛疲勞駕駛管理相關規範之評估規劃。 依據澳洲國家重型車輛法(Heavy Vehicle National Law,HVNL)規定,設有國家重型車輛管理獨立機構(The National Heavy Vehicle Regulator,NHVR)針對總重4.5噸之重型車輛進行規範監管。依國家重型車輛疲勞管理規則【Heavy Vehicle (Fatigue Management) National Regulation】規定針對1.超過12噸總重額(Gross Vehicle Mass,GVM)之重型車輛2. 車輛及聯結物超過12噸者3.超過4.5噸可乘載12名成人(包含司機)之巴士4.超過12噸總重額定值之卡車及聯結車,其附接工具或機械者,必須進行疲勞管制,其他對於有軌電車、工具機械車輛(例如:推土機、拖拉機)、露營車等則不在此管制對象。該法針對重型車輛工作和休息時間、工作及休息時間之紀錄、疲勞管理豁免(Fatigue management exemptions),及公司、負責人、合夥人、經理等的連帶責任,訂有相關規範。疲勞管理規則的規範核心在於駕駛員不能在疲勞的情況下行駛重型車輛,故即使符合工作和休息限制,駕駛員也可能因疲勞而受影響。 目前,因有限的證據表明工作安排對於重型車輛駕駛員疲勞的影響程度,亦很少有研究使用客觀和預測技術測量駕駛員的警覺性和疲勞,另對於駕駛員睡眠的質量和時間最低要求的資訊亦不足。因此,現行法律規範對重型車輛駕駛員疲勞的影響將受到挑戰。故警覺、安全、生產力合作研究中心將採取更精準的警報檢測方法和睡眠監測設備,進行相關研究測試,以作為未來國家重型車輛疲勞管理規則修訂之依據。 駕駛疲勞所引發的交通事故時有耳聞,往往造成重大危害與耗費社會成本。目前實務上已有利用科技設備偵測是否有疲勞駕駛情形,然而更重要的是,應落實行車前的疲勞管制,及相對應的解決方案,並加強公司及相關管理者之監督義務及連帶責任,才能有效降低疲勞駕駛肇事率,確保道路安全。
美國環境保護署(EPA)發布顯著新種使用規則(SNURs),將影響單壁及多壁奈米碳管(Carbon Nanotubes)之使用美國環境保護署(Environmental Protection Agency,以下簡稱EPA)於2010年9月17日聯邦政府公報中,依據毒性物質管制法(Toxic Substances Control Act,以下簡稱TSCA)section 5(a)(2)授權,發布了顯著新種使用規則(Significant New Use Rules,以下簡稱SNURs)的最終規則(final rule)。此項規則於2010年10月18日生效,任何想要製造、輸入以及加工單壁奈米碳管(single-walled carbon nanotubes,以下簡稱SWCNTs)及多壁奈米碳管(multi-wall carbon nanotubes,以下簡稱MWCNTs)兩項化學物質者,必須依照TSCA section 5(a)(1)要求,在進行上述利用活動的至少90天前,報經EPA核准,否則不得使用。 事實上,EPA曾於前(2009)年6月24日發布上述SNURs的直接最終規則(direct final rule),徵詢公眾意見,並在同年8月21日撤回該規則。在重新提案的規則中,主要是新增SWCNTs、MWCNTs釋放於水中的顯著新種使用態樣,並將已完全反應、結合或嵌入已完全反應之聚合物基(polymer matrix)以及嵌入不再進行機械加工外其他處理之永久硬性聚合物形式(permanent solid polymer form)之SWCNTs、MWCNTs物質,排除在新SNURs適用範圍之外。 目前,依照TSCA section 5(e)之規定,若系爭之化學物質已列名於TSCA section 8(b)所建立之現存(existing)化學物質目錄(INVENTORY)中,其他化學物質生產者欲生產該種化學物質時,並不需再向EFA進行通報程序。然而,若EFA對該列名之化學物質曾發出TSCA section 5(e)下之具風險性命令(risk-based order),則相關之化學物質生產者須於生產前依據TSCA section 5(a)(2)規範中之SNURs規定通報EFA,使得EFA於生產前仍有再次檢驗該系爭化學物質的機會。 這一次,EPA以制訂SNURs之方式,要求所有製造、輸入、加工該項化學物質者,有義務通報任何與原同意命令所定條款不同的使用活動。這樣的規範變動,預計將對奈米材料的製造及運用活動造成不小的影響。
「亞馬遜公司(amazon)」積極向美國政府機關推動其所開發的人臉辨識軟體“Rekognition”,將可能造成隱私權的重大侵害亞馬遜公司所開發的“Rekognition”軟體可以進行照片中的人臉辨識識別,單張圖片中可辨識高達一百人,同時可以圖片進行分析及比對資料庫中的人臉長相。目前亞馬遜公司積極向政府機關推銷這套軟體。可能造成的風險是,公權力機構可透過使用“Rekognition”軟體來辨識或追蹤任何個人,警察機關可以隨時監控人民的行為,各城市的政府機關也可能在無合理理由的狀況下隨時查看人口居住狀況,尤有甚者,美國移民及海關執法局(Immigration and Customs Enforcement, ICE)可以使用該軟體來監控移民的狀況,即使是無任何犯罪疑慮的狀況下亦可進行,將政府打造成巨大的監控系統,有造成隱私權嚴重侵害的疑慮。因此無論亞馬遜公司內外都有反對將“Rekognition”軟體推銷給政府機構的聲浪,尤其美國公民自由聯盟(American Civil Liberties Union, ACLU)更是發起多項連署抗議。 支持政府使用“Rekognition”軟體的意見則認為,使用“Rekognition”軟體將可以更有效率地辨識人臉,在尋找失蹤兒童或在公共中辨識出恐怖份子可以發揮更大的作用,不啻是保護公眾法益的進步。 佛羅里達的奧蘭多市警察機構曾經使用“Rekognition”軟體後因契約到期而一度停止使用,於7月9日與亞馬遜公司續約繼續測試使用該軟體,奧蘭多市警察機構宣稱以目前測試階段將不會使用一般民眾的照片進行測試,將不會造成人民的隱私權侵害。
歐盟發布新人工智慧規範,以風險程度判斷防止科技濫用歐盟執委會於2021年4月21日提出「人工智慧規則」(AI regulation)草案,成為第一個結合人工智慧法律架構及「歐盟人工智慧協調計畫」(Coordinated Plan on AI)的法律規範。規範主要係延續其2020年提出的「人工智慧白皮書」(White Paper on Artificial Intelligence)及「歐盟資料策略」(European Data Strategy),達到為避免人工智慧科技對人民基本權產生侵害,而提出此保護規範。 「人工智慧規則」也依原白皮書中所設的風險程度判斷法(risk-based approach)為標準,將科技運用依風險程度區分為:不可被接受風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)及最小風險(Minimal risk)。 「不可被接受的風險」中全面禁止科技運用在任何違反歐盟價值及基本人權,或對歐盟人民有造成明顯隱私風險侵害上。如政府對人民進行「社會評分」制度或鼓勵兒童為危險行為的語音系統玩具等都屬於其範疇。 在「高風險」運用上,除了作為安全設備的系統及附件中所提出型態外,另將所有的「遠端生物辨識系統」(remote biometric identification systems)列入其中。規定原則上禁止執法機構於公眾場合使用相關的生物辨識系統,例外僅在有目的必要性時,才得使用,像尋找失蹤兒童、防止恐怖攻擊等。 而在為資料蒐集行為時,除對蒐集、分析行為有告知義務外,也應告知系統資料的準確性、安全性等,要求高度透明化(Transparency obligations)。不只是前述的不可被接受風險及高風險適用外,有限風險運用中的人工智慧聊天系統也需要在實際和系統互動前有充足的告知行為,以確保資料主體對資料蒐集及利用之情事有充足的認知。 在此新人工智慧規範中仍有許多部份需要加強與討論,但仍期望在2022年能發展到生效階段,以對人工智慧科技的應用多一層保障。