美國政府呼籲立法遏止資料盜取並加強學生隱私保護

  美國歐巴馬總統在美國聯邦貿易委員會(Federal Trade Commission,FTC)2015年1月12日所舉辦的會議上,呼籲聯邦政府應制定「個人資料通知與保護法」(The Personal Data Notification and Protection Act),該法要求美國企業建立通報機制,其必須在資料遭盜取之日起三十天內通報客戶,以保護美國大眾之隱私。此一要求主要係因為發生多起網路駭客與資安事件,但目前聯邦政府卻欠缺相關法制,故聯邦政府嘗試藉此改善各州法律各行其事無法完善資安保護之問題,亦減輕跨州營運之美國企業適用各州法律之負擔,將有助於產業法制環境之改善。

  同時,歐巴馬總統亦提出制定「學生數位隱私法」(The Student Digital Privacy Act)之呼籲,該法將禁止企業為獲取利益經由學校取得學生資料。此外,歐巴馬總統亦提及美國企業將需要簽署一自願性協議(Voluntary Code of Conduct for Smart Grid Customer Data Privacy,VCC),使消費者能夠查詢各企業之信用評分,帶動企業自主保護數位資料之安全,並以此作為身分盜取之預警,避免造成個資外洩後損失更多權益。而本次呼籲制定的法規尚針對先前由美國眾議院提出之「網路情報分享及保護法」(Cyber Intelligence Sharing and Protection Act,CISPA),特別強化其網路使用者保護之部份規定;其中包括加強公私部門合作以及深化網路防護安全,藉此妥善處理網路犯罪、保護國土安全等相關問題。是故,本次制定法規之目的將更著眼於擴大授權,使政府目的事業主管機關以及企業之間能夠共享相關資訊之權限,以預防更多潛在性的網路攻擊與資料盜取事件。

相關連結
※ 美國政府呼籲立法遏止資料盜取並加強學生隱私保護, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6765&no=0&tp=1 (最後瀏覽日:2025/11/23)
引註此篇文章
你可能還會想看
FDA針對境內個人化診斷醫療器材管理發布指引文件草案

  為促進美國境內個人化診斷醫療器材發展並進一步實現個人化醫療之理想與目標,於今(2011)年7月14日時,FDA於各界期盼下,正式對外公布了一份「個人化診斷醫療器材管理指引文件草案」(Draft Guidance on In Vitro Companion Diagnostic Devices)。而於此份新指引文件草案內容中,FDA除將體外個人化診斷醫療器材定義為:「一種提供可使用相對應之安全且有效治療產品資訊之體外診斷儀器」外,亦明確指出,將視此類個人化檢測醫療器材產品為具第三風險等級之醫療器材,並採「以風險為基礎」(Risk-Based)之管理方式。   依據上述新指引文件草案內容,FDA對於此類產品之管理,除明訂其基本管理原則外,於其中,亦另列出兩項較具重要性之例外核准條件。第一項,是關於「新治療方法」(new therapeutics)部分,FDA認為,於後述情況下,例如:(1)該項新治療方法係針對「嚴重」或「威脅病患生命」、(2)「無其他可替代該新治療方法存在」、或(3)將某治療產品與未經核准(或未釐清)安全或功效之體外個人化診斷醫療器材並用時,其為病患所帶來之利益,明顯高於使用該項未經許可或未釐清之體外個人化診斷醫療器材所將產生之風險等前提下,FDA或將例外核准該項新治療方法。其二,是關於「已上市治療產品」部分,依據新指引文件草案,於下列各條件下,或將例外核准製造商以補充方式所提出之「新標示」產品之上市申請案,包括:(1)該新標示產品乃係一項已通過主管機關審查之醫療產品,且已修正並可滿足主管機關於安全方面之要求;(2)該產品所進行之改良須仰賴使用此類診斷試劑(尚未取得核准或未釐清安全功效);(3)將此項已上市治療產品與未經核准或未查驗釐清安全(或功效)之體外個人化診斷醫療器材並用時,其為病患所帶來之利益,明顯高於使用該項未經許可或查驗釐清之體外個人化診斷醫療器材所具之風險等。   此外,FDA方面還強調,若針對某項個人化診斷醫療器材之試驗結果顯示,其具較顯著之風險時,將進一步要求業者進行醫療器材臨床試驗(Investigational Device Exemption,簡稱IDE)。而截至目前為止,此項新指引文件草案自公布日起算,將開放60天供外界提供建議,其後FDA將參考各界回應,於修正後,再提出最終修正版本指引文件;然而,究竟FDA目前所擬採取之規範方式與態度,究否能符合境內業者及公眾之期待與需求?則有待後續之觀察,方得揭曉。

美國第七巡迴上訴法院於Wallace v. IBM, Red Hat, and Novell 一案認定GPL或自由軟體授權模式不違反聯邦反托拉斯法

  美國第七巡迴上訴法院( U.S. Court of Appeals (7thCir) )最近就 Wallace v. IBM, Red Hat, and Novell 一案做出判決,本案爭執重點在於 GPL 授權條款與反托拉斯法之間的關係,美國第七巡迴上訴法院認為 GPL 授權條款並不違反反拖拉斯法,法院也同時明確表示,一般而言自由軟體無須擔心會違反反托拉斯法。   本案上訴人 Daniel Wallace 係程式設計師,其欲販售由 BSD ( Berkeley Software Distribution )所開發出來的競爭軟體給各級學校。 BSD 是 Linux 的衍生版本,而 Linux 作業系統則是屬於自由軟體的一種,想要使用 Linux 的人就必須遵守 GPL 授權條款。依 GPL 授權條款規定,不論 Linux 或 Linux 之衍生著作均不得收取授權費用,上訴人因此指控 IBM 、 Red Hat 、 Novell 與自由軟體協會涉嫌共謀將軟體價格設定在零,涉嫌以掠奪性定價( predatory pricing claim )方式削減作業系統市場之競爭,已違反反托拉斯法。   法院認為,本案並無法主張掠奪性定價,蓋被上訴人 IBM 、 Red Hat 及 Novell 並無法因此而取得獨佔價格,其授權價格之所以為零乃是遵照 GPL 授權條款的結果,且消費者並未因此受到損害。其次,法院也指出,著作權法通常對他人之改作權加以限制,其目的是為了收取授權金,不過著作權法人亦可用以確保自由軟體維持零授權金,因此任何嘗試想要販售自由軟體之衍生著作者,將會違反著作權法,即令改作人不同意接受 GPL 授權條款的約束。

為確保使用奈米科技醫藥產品的安全性,美國參議員提出2010奈米科技安全法案

  美國食品暨藥物管理局(U.S. Food and Drug Administration,以下簡稱FDA)向來負有保障境內國民健康與人身安全之義務,於今(2010)年1月底,美國參議員Mark Pryor提出「2010奈米科技安全法案」(The Nanotechnology Safety Act of 2010, S.2942),擬授權FDA對使用奈米科技的醫藥與健康產品(medical and health products)進行管理規範。   「2010奈米科技安全法案」規劃將在聯邦食品、藥物與化妝品管理法(Federal Food, Drug and Cosmetic Act)的第十章中加入第1101節「奈米科技研究計畫」 (Nanotechnology Program),透過設置研究計畫對FDA管轄範圍內的產品展開調查,藉由研究進一步了解奈米材料對於生物體的作用與影響,經由對奈米材料毒性的認識,歸納出原則性規範,並將奈米材料依照等級劃分,建立以科學證據為基礎的資料庫,同時於內部單位設置奈米材料專家以供諮詢,故為利於日後收集相關科學證據資料作為資料庫之用,協助管理規範上可供參考與遵循之依據,FDA將研究與分析奈米材料係如何被人體吸收,以及如何設計奈米材料使其得以運載對抗癌症之藥物以消除腫瘤,抑或是植入骨骼的奈米級組織是如何強化關節並減少不必要的感染等,未來本法案若順利通過,FDA將對於使用奈米材料之醫藥品、醫療器材與食品添加劑進行規範。   美國參議員Pryor再度重申,FDA需要相當之資源與經費建立以科學證據為基礎的規範體系架構,確保以奈米材料為成分的醫藥健康產品係安全有效,若無相關研究提供完善證據資料,將無從檢驗含有奈米材料的醫藥健康產品,也將無從保障國民之健康安全,故未來期望此一法案之通過將授權FDA投入管理規範體系之建置,亦將有助於實踐以奈米科技改善人類健康與降低醫療成本之理想。

英國上議院人工智慧專責委員會提出AI應用影響報告並提出未來政策建議

  英國上議院人工智慧專責委員會(Select Committee on Artificial Intelligence)2018年4月18日公開「AI在英國:準備、意願與可能性?(AI in the UK: ready, willing and able?)」報告,針對AI可能產生的影響與議題提出政策建議。   委員會建議為避免AI的系統與應用上出現偏頗,應注重大量資訊蒐集之方式;無論是企業或學術界,皆應於人民隱私獲得保障之情況下方有合理近用數據資訊的權利。因此為建立保護框架與相關機制,其呼籲政府應主動檢視潛在英國中大型科技公司壟斷數據之可能性;為使AI的發展具有可理解性和避免產生偏見,政府應提供誘因發展審查AI領域中資訊應用之方法,並鼓勵增加AI人才訓練與招募的多元性。   再者,為促進AI應用之意識與了解,委員會建議產業應建立機制,知會消費者其應用AI做出敏感決策的時機。為因應AI對就業市場之衝擊,建議利用如國家再訓練方案發展再訓練之計畫,並於早期教育中即加入AI教育;並促進公部門AI之發展與布建,特別於健康照顧應用層面。另外,針對AI失靈可能性,應釐清目前法律領域是否足以因應其失靈所造成之損害,並應提供資金進行更進一步之研究,特別於網路安全風險之面向。   本報告並期待建立AI共通之倫理原則,為未來AI相關管制奠定初步基礎與框架。

TOP