美國總統歐巴馬日前表示其將訂立「學生數位隱私法」(The Student Digital Privacy Act)以確保因教育目的而被蒐集之學生個人資料將不會被用於無關之用途。換言之,該法將禁止,例如,利用所蒐集資料對學生進行精準行銷的行為,但仍會許可蒐集者利用所蒐集資料改善其所提供之軟硬體教育設備或用以幫助學生之學習品質。 針對學生之隱私保護,目前於聯邦層級至少已有家庭教育權利與隱私法(Family Educational Rights and Privacy Act,FERPA),該法及其授權法令雖賦予學生及其家長對學校所保有之教育紀錄(educational record)之蒐集、使用有知情同意權及其他如修正教育紀錄之權利。但FERPA也列了相當多的例外情形,例如,醫療資料、受雇紀錄等均不在教育紀錄之列;此外,學校亦可不經同意即公布學生的姓名、電子郵件、出生地、主修、預計畢業日期等資料。 學生數位隱私法未來如能獲國會通過成為法律,該法與FERPA的異同,及其內容與施行實務是否確有助於學生隱私之改善,仍有待觀察。
美國對於智慧聯網 IoT 環境隱私保障展開立法工作有鑒於智慧聯網IoT環境下,許多智慧型手持裝置及行動通訊裝置,大量蒐集消費者資訊之隱私權暨資訊安全考量,美國國會於2013年5月10日提出「應用軟體隱私暨資訊安全保護法草案」(Application Privacy, Protection, and Security Act of 2013, APPS Act of 2013, H.R. 1913)進行審議。「應用軟體隱私暨資訊安全保護法草案」草案針對應用軟體(Application)在蒐集消費者資訊前,如何落實「同意」機制,乃強制行動通訊裝置應用軟體開發商(developer)應:(1)提供使用者個人資料蒐集、使用、儲存及公開之通知(notice),而該通知含括所蒐集個人資料之種類、使用目的、有償公開第三者之類別及資料儲存等;(2)取得使用者之同意(consent);消費者依據該草案亦有權撤銷其「同意」(withdrawal of consent)。此外,草案乃強制要求該行動通訊裝置應用軟體開發商,就非法近取之個人資料及經去識別化應用軟體蒐集之個人資料,應採取合理及適當之防衛措施(security measures on personal data and de-identified data)。 並且,針對網路環境下隱私權保護議題,更早之前,美國國會於2013年2月28日提出「線上禁止追蹤法草案」(Do-Not-Track Online Act of 2013) 進行審議。「線上禁止追蹤法草案」草案乃要求聯邦貿易委員會(FTC),就透過個人線上活動追蹤,以蒐集、使用個人資料之行為態樣,進行管制。該管制模式謹據以要求如下:(1)被搜集資料個人應收到簡單、明確、並載明資料使用目的之通知(clear, conspicuous and accurate notice and use of such information),而個人就該通知應予明白之同意(affirmative consent);(2)FTC未來在訂定標準規範時,應(shall)考量所被搜集之資料,是否在匿(隱)名基礎上處理之,遂該資料無法有效被聯結(指認)到特定個人或裝置上;此外,消費者當享有資料不被蒐集的權利(expressed preference by individual not to have personal information collected)。該草案並就違反之個人,設定最高15,000,000美元損害賠償規定。
美國「人工智慧應用管制指引」美國白宮科學與技術政策辦公室(The White House’s Office of Science and Technology Policy , OSTP)於2020年1月9日發布「人工智慧應用管制指引」(Guidance for Regulation of Artificial Intelligence Application),為美國政府機關起草人工智慧規範並進行管制時提供指引,該指引內要求各機關之規範應遵循以下10項人工智慧原則: 一.公眾對AI之信任:政府對AI之管制或其他措施應促進AI之可靠性、健全性,且於應用上應具備可信性。 二.公共參與:政府應提供機會讓利害關係人參與AI管制規範立法程序。 三.科學實證與資訊品質:科學實證與資訊品質:政府機關發展AI之相關技術資訊,應透過公開且可驗證之方式提供給大眾參考,以提高大眾對AI之信任與協助政策制定。 四.風險分析與管理:應採取以風險為基礎之分析評估方法,確認哪些風險係可接受之風險,或那些風險代表無法接受之損害或所失利易大於預期利益。 五.利益與成本:政府於擬定相關規範時,應小心評估AI對於整體社會之利益,與預期外之效果。 六.彈性:法規應持續滾動檢視與調修以因應AI之創新應用。 七.公平且無歧視:政府應針對AI之應用與決策,考量公平與無歧視相關議題。 八.揭露與透明:透明度與揭露程序之建立可提升公眾對AI應用之信任。 九.安全:政府應特別注意AI系統內所儲存或傳輸資訊之安全與相關安全維護控制措施。 十.跨機關合作:政府各部會或機構間應相互合作與分享經驗,以確保AI相關政策之一致性與可預測性。
紐西蘭人工智慧論壇所發佈人工智慧原則紐西蘭人工智慧論壇(AI Forum)協會成立於2017年,為非營利組織,是紐西蘭政府的重要智庫單位。該協會的AI法律、社會和倫理工作組於2020年3月4日發表了紐西蘭第一份《紐西蘭可信賴的AI指導原則》, 此指導原則目的在提供簡潔有力的人工智慧參考點,以幫助大眾建立對紐西蘭人工智慧的開發和使用的信任。此份AI指導原則對政府具有重要的參考價值。 《紐西蘭可信賴的AI指導原則》,內容摘要如下: 一、公平和正義 (一)適用紐西蘭及其他相關管轄地包含科克群島、紐埃、托克勞、南極羅斯屬地法律; (二)須保護紐西蘭國內法及國際法所規範的人權; (三)須保障《懷唐伊條約》中毛利人的權利; (四)民主價值觀包含選舉的過程和在知情的情況下進行公眾辯論; (五)平等和公正的原則,要求人工智慧系統不會對個人或特定群體造成不公正地損害、排斥、削弱權力或歧視。 二、可靠性、安全性和私密性 AI利益相關者須確保人工智慧系統及資料的可靠、準確及安全性,並在人工智慧系統的整個生命週期中,保護個人隱私以及持續的識別和管控潛在風險。 三、透明度 人工智慧系統的運作應是透明的、可追溯的、並在一定的程度上具可解釋性,在面對責問時能夠被解釋且經得起質疑。 四、人類的監督和責任 AI利益相關者,應該對人工智慧系統及其產出進行適當的監督。 在利益相關者確定適當的問責制度和責任之前,不應使用會對個人或群體造成傷害的技術。 五、福利 AI利益相關者應在適當的情況下設計、開發和使用人工智慧系統,盡可能促進紐西蘭人民和環境的福祉,像是健康、教育、就業、可持續性、多樣性、包容性以及對《懷唐伊條約》獨特價值的認可。 此份AI指引較大的特色有兩點,第一,紐西蘭人工智慧論壇協會的成員組成,其中女性成員比例超過半數。第二,在其指導原則中第一點的「公平和正義」及第五點「福利」中,都特別提到須遵守《懷唐伊條約》以確保毛利人的權益。在這樣的基礎下,能更期待紐西蘭在發展AI技術的過程,能夠更切實的做到公平正義、無歧視。