歐巴馬宣布將立法保護學生數位隱私權

  美國總統歐巴馬日前表示其將訂立「學生數位隱私法」(The Student Digital Privacy Act)以確保因教育目的而被蒐集之學生個人資料將不會被用於無關之用途。換言之,該法將禁止,例如,利用所蒐集資料對學生進行精準行銷的行為,但仍會許可蒐集者利用所蒐集資料改善其所提供之軟硬體教育設備或用以幫助學生之學習品質。

  針對學生之隱私保護,目前於聯邦層級至少已有家庭教育權利與隱私法(Family Educational Rights and Privacy Act,FERPA),該法及其授權法令雖賦予學生及其家長對學校所保有之教育紀錄(educational record)之蒐集、使用有知情同意權及其他如修正教育紀錄之權利。但FERPA也列了相當多的例外情形,例如,醫療資料、受雇紀錄等均不在教育紀錄之列;此外,學校亦可不經同意即公布學生的姓名、電子郵件、出生地、主修、預計畢業日期等資料。

  學生數位隱私法未來如能獲國會通過成為法律,該法與FERPA的異同,及其內容與施行實務是否確有助於學生隱私之改善,仍有待觀察。

相關連結
※ 歐巴馬宣布將立法保護學生數位隱私權, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6757&no=55&tp=1 (最後瀏覽日:2025/12/03)
引註此篇文章
你可能還會想看
加州公佈影音遊戲法案臨危憲爭議

  加州州長阿諾‧史瓦辛格於 2005 年 10 月 7 日簽署禁止販售暴力影音遊戲 (Violate Video Game) 與未成年人之影音遊戲法案,影音遊戲業者對於此法案之通過表示強烈抗議,主張該法案違反美國憲法修正條文第一條言論自由之保護。   該法案禁止販賣或出租具強烈暴力色彩之影音遊戲與未滿 18 歲之未成年人,同時要求此類遊戲必須於包裝正面依據規定標誌標示明顯之「 18 」字樣,違者將處以 1000 美元以下之罰金。州長史瓦辛格先生指出,這些遊戲多半是為成人所設計,是否讓青少年接觸此類遊戲,應由其家長決定之,故此法案並未限制該未成年人之家長購買或租用該類遊戲提供未成年人使用。   美國「影音軟體業者協會」 (Video Software Dealer Association) 以及「娛樂軟體協會」 (Entertainment Software Association) 等業者代表計畫以訴訟方式爭議此法之合憲性並予以推翻,而美國聯邦法院曾對於華盛頓州之類似法案作出不利之判決,使得此法案之未來仍為一個未知數。值得一提的是,美國其他州亦有類似法案通過,其中包括伊利諾州以及密西根州,目前「娛樂軟體協會」針對此兩州之法案已於聯邦法院提起訴訟。

WIPO的廣播協議激怒了podcasters

  英國支持一項由智慧財產權組織(World Intellectual Property Organization/WIPO)草擬的廣電協議(Treaty on the Protection of Broadcasting Organizations),引起一陣反對聲浪。反對者聲稱,這無疑是送給大財團一項操控媒體內容製作的新權利。 2006年6月21日,在西班牙召開的此項協議的討論會議,賦予無線、有線廣電業者和網路廣播業者一項全新的智慧財產權利。業者將對他們所傳輸的任何作品,擁有「五十年、類似著作權的權利(copyright-like rights)」。此協議的目的是為了讓法律更合乎時代性,特別是要處理數位傳送上所產生剽竊數位訊號的問題。不過,網路廣播業者和podcasters卻擔心,如果WIPO將該規範擴張到網路,將使原無需經過授權散播的作品,或者內容是獲得「Creative Commons」授權,可無限制次數的發表,在某些情況下更可不付費的作品,反將經過網路廣播的傳送,讓一些團體組織獲得新的權利。如此一來,恐怕除了限制民眾獲取文化知識的自由外,更會讓那些原屬於創作者和公眾的權利,落入廣電業者手中。Podcasters認為,podcasting 和廣播不能相提並論,更不該受同樣法規的規範。

美國情報體系發布「情報體系運用人工智慧倫理架構」

  美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。

英國民航局發布航空AI監管策略三文件,以因應AI於航空領域之挑戰與機會

英國民用航空局(United Kingdom Civil Aviation Authority, CAA)於2024年12月3日發布「CAA對新興AI驅動自動化的回應」(The CAA's Response to Emerging AI-Enabled Automation)、「航空人工智慧與先進自動化監管策略」(Part A:Strategy for Regulating AI and Advanced Automation in Aerospace)以及「CAA 應用AI策略」(Part B: Strategy for Using AI in the CAA)等三份文件。首先,前者概述CAA對於AI應用於航空領域之總體立場,強調以確保安全、安保、消費者保護及環境永續等前提下,促進AI技術在相關航空領域之創新與應用;其次,「航空人工智慧與先進自動化監管策略」著重說明如何於航空領域監管AI技術之使用,以兼顧推動創新並維持安全性及穩健性;最後,「CAA 應用AI策略」則聚焦於CAA內部使用AI技術提升監管效率與決策能力的策略。 由於AI正迅速成為航空產業之重要技術,其應用範圍包含航空器、機場、地面基礎設施、空域、航太、消費者服務等,具有提高航空安全性、運作效率、環境永續性與消費者體驗之潛力。然而,相關技術風險與監管挑戰亦伴隨而至,仍需新的監管框架應對潛在風險。因此,總體而言CAA以推動AI創新技術、提升航空產業效率與永續性為目標,透過了解技術前景、建立AI通用語言,並以航空領域之五大原則為監管框架之制定核心,建立靈活的AI監管體系,維持最高水準的安全保障。五大原則及案例分述如下: (1) 安全、安保與穩健性(Safety, Security and Robustness),例如:使用AI分析航空器感測器資料進行預測維護,以利提早發現問題。 (2) 透明與可解釋性(Transparency and Explainability),例如:清楚記錄AI系統如何提出空中交通路線建議。 (3) 可質疑性與矯正機制(Contestability and Redress),例如:制定一套明確的流程,以便航空公司查詢並了解AI生成的安全建議。 (4) 公平與偏見(Fairness and Bias),例如:確保自動化旅客篩查安檢系統公平對待所有旅客。 (5) 問責與治理(Accountability and Governance),例如:明確界定AI系統在機場運營中的監管角色與職責。 .Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em}

TOP