歐巴馬宣布將立法保護學生數位隱私權

  美國總統歐巴馬日前表示其將訂立「學生數位隱私法」(The Student Digital Privacy Act)以確保因教育目的而被蒐集之學生個人資料將不會被用於無關之用途。換言之,該法將禁止,例如,利用所蒐集資料對學生進行精準行銷的行為,但仍會許可蒐集者利用所蒐集資料改善其所提供之軟硬體教育設備或用以幫助學生之學習品質。

  針對學生之隱私保護,目前於聯邦層級至少已有家庭教育權利與隱私法(Family Educational Rights and Privacy Act,FERPA),該法及其授權法令雖賦予學生及其家長對學校所保有之教育紀錄(educational record)之蒐集、使用有知情同意權及其他如修正教育紀錄之權利。但FERPA也列了相當多的例外情形,例如,醫療資料、受雇紀錄等均不在教育紀錄之列;此外,學校亦可不經同意即公布學生的姓名、電子郵件、出生地、主修、預計畢業日期等資料。

  學生數位隱私法未來如能獲國會通過成為法律,該法與FERPA的異同,及其內容與施行實務是否確有助於學生隱私之改善,仍有待觀察。

相關連結
※ 歐巴馬宣布將立法保護學生數位隱私權, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6757&no=67&tp=1 (最後瀏覽日:2026/02/18)
引註此篇文章
你可能還會想看
世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧

世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。

荷蘭公司控《中國好聲音》商標侵權,索賠300萬

  北京法院於2016年3月17日開始審理關於「夢想強音文化傳播有限公司」和「北京正議天下文化傳媒公司」未經授權使用荷蘭Talpa公司商標一案。   Talpa公司主要業務為開發、製作電視節目模式,〈The Voice of〉是該公司開發的一款歌唱比賽真人秀電視節目模式,為該公司知名產品。Talpa已向中國、澳州、美國、歐盟等在內約70個國家,註冊了「The Voice of 」商標,商標圖示為一隻手拿麥克風之圖像。   《中國好聲音》製作單位於2012年向荷蘭Talpa 買下節目模式與商標圖示,用以製作音樂真人秀《中國好聲音》;今年Talpa並未與其續約,故《中國好聲音》製作單位未取得Talpa公司商標專用權。   惟負責《中國好聲音》第五季海選活動之夢想強音文化傳播公司和北京正議天下文化傳媒公司,在好聲音全國海選活動與宣傳中,大量使用與Talpa註冊商標幾乎相同的圖形及文字;Talpa公司認為,此為類似商品上使用與註冊商標相同或近似商標行為,已造成消費者混淆,依中國大陸人民共和國商標法第57條,構成侵害商標專用權。據此,Talpa公司要求上開兩間公司立即停止商標侵權行為,並要求登報道歉與連帶賠償律師費、公證費、翻譯費及各項損失300萬元。 本文同步刊登於TIPS網站(http://www.tips.org.tw)

印度對TK( Traditional Knowledge傳統知識 )保護提出的建議修正案

  近年來許多先進國家的藥廠或是生技公司紛紛到生物資源豐富的國家從事生物探勘活動,希望可以尋找合適的生技產品候選者 (candidate) ,也因此產生許多不當佔有的生物盜竊 (biopiracy) 事件。   由於印度本身在 2002 年專利法修正時,特別規定生技發明之專利申請者若使用生物物質 (biological material) ,應揭露其地理來源 (source of geographical origin) ,未揭露其來源地或提供錯誤資訊者,則構成專利撤銷之理由; 2005 年的專利法修正的重點之一為「加強專利授予前異議 (pre-grant opposition) 機制」,意即未揭露生物物質之來源地或提供錯誤資訊者,或者申請專利之權利內容含有傳統知識者,可提出異議之事由。   目前國際間針對是否應強制規定申請人應揭示其來源地等仍無共識。從 2001 年的杜哈發展議程的談判會議結果即可知,由於該談判採取 「單一承諾( Single Undertaking )」模式且可從不同議題間相互掛勾,加上開發中及低度開發會員採取結盟方式來壯大談判立場,在某些關鍵議題與美國、歐盟等主要會員國形成抗衡局面。 開發中國家對於 TRIPs 第 27 條第 3 項 b 款的審議特別在乎,認為 TRIPs 協定應該修訂應納入上述的揭露需求外,還必須提供事先告知且同意 (prior informed consent) ,以及因該專利而獲取的利益與來源地分享之證明。   因此,印度提出修正 TRIPs 協定的建議,強制會員國必須改變內國法律,規定專利申請者必須揭露其發明所使用的生物物質來源,並希望能在今年 12 月香港部長會議裡討論。

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

TOP