美國聯邦貿易委員會(Federal Trade Commission, FTC)於2023年12月對《兒童線上隱私保護規則》(Children's Online Privacy Protection Rule, COPPA Rule)提出修法草案,並於2024年1月11日公告60日供公眾意見徵詢。
FTC依據兒童線上隱私保護法(Children's Online Privacy Protection Act, COPPA)第6502節授權,訂定COPPA Rule,並於2000年通過生效,要求網站或提供線上服務的業者在蒐集、使用或揭露13歲以下兒童的個人資訊之前必須通知其父母,並獲得其同意。本次提議除了限制兒童個人資訊的蒐集,亦限制業者保留此些資訊的期間,並要求他們妥善保存資料,相關規定如下:
(1)置入固定式廣告時需經認證:COPPA所涵蓋的網站和線上服務業者現在需要獲得兒童父母的同意並取得家長的授權才能向第三方(包括廣告商)揭露資訊,除非揭露資訊是線上服務所不可或缺之部分。且因此獲悉的兒童永久身分識別碼(persistent identifier)也僅止於網站內部利用而已,業者不能將其洩漏予廣告商以連結至特定個人來做使用。
(2)禁止以蒐集個資作為兒童參與條件:在蒐集兒童參與遊戲、提供獎勵或其他活動的個資時,必須在合理必要的範圍內,且不能用個資的蒐集作為兒童參與「活動」的條件,且對業者發送推播通知亦有限制,不得以鼓勵上網的方式,來蒐集兒童的個資。
(3)將科技運用於教育之隱私保護因應:FTC提議將目前教育運用科技之相關指南整理成規則,擬訂的規則將允許學校和學區授權教育軟硬體的供應商將科技運用於蒐集、使用和揭露學生的個資,但僅限使用於學校授權之目的,不得用於任何商業用途。
(4)加強對安全港計畫的說明義務:COPPA原先有一項約款,內容是必須建立安全港計畫(Safe Harbor Program),允許行業團體或其他機構提交自我監督指南以供委員會核准,以執行委員會最終定案的防護措施,此次擬議的規則將提高安全港計畫的透明度和說明義務,包括要求每個計畫公開揭露其成員名單並向委員會報告附加資訊。
(5)其它如強化資訊安全的要求以及資料留存的限制:業者對於蒐集而來的資訊不能用於次要目的,且不能無限期的留存。
FTC此次對COPPA Rule進行修改,對兒童個人資訊的使用和揭露施加新的限制,除了將兒童隱私保護的責任從孩童父母轉移到供應商身上,更重要的是在確保數位服務對兒童來說是安全的,且亦可提升兒童使用數位服務的隱私保障。
.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。
FCC正式將新版網路中立命令提交予美國聯邦政府公報刊登美國聯邦通訊委員會(Federal Communications Commission, FCC)於2015年2月26日公布了新版的網路中立命令後,由於新版方案揭櫫了禁止提供快車道(fast lane)予特定服務業者的重要原則,因此被外界預測將遭到各大網路服務供應商的反彈,一如外界所預期的,美國電信協會(United States Telecom Association, USTelecom)於2015年3月23日在美國華盛頓特區聯邦巡迴上訴法院對FCC的新版法案提起訴訟,USTelecom認為,新版的網路中立法案中,賦予監理機構──亦即FCC太多裁量權限,將使得FCC的權力難以控制,在此同時,德州的一家網路服務業者Alamo (Alamo Broadband Inc.)也基於相類似的理由,於美國紐奧良聯邦巡迴上訴法院對FCC提起訴訟。而實際上,在前開電信業者向法院提起訴訟時,FCC的新版網路中立方案甚至尚未刊登於美國聯邦政府公報(Federal Register),自然也無從討論法律生效時點的問題,這個訴訟程序的瑕疵也立即引起各界的注意,論者咸認這些訴訟都將會遭到法院的駁回,但USTelecom宣稱他們的訴訟標的是生效後的法案。 對於各大電信業者、網路服務供應商的大動作,FCC似乎已經準備好面對這些法律論戰,2015年4月1日,FCC正式將新版的網路中立方案提交予美國聯邦政府公報刊登,依據相關規定,此項行政命令將會在刊登2個月後正式產生法律效力,這也意味著在命令生效後,前開訴訟標的之爭議將不復存在,此後再行提起的訴訟,勢必也將正式地透過司法途徑解決。
日本通過科學技術基本法等修正案,將創新與人文科技發展納為規範對象日本通過科學技術基本法等修正案,將創新與人文科技發展納為規範對象 資訊工業策進會科技法律研究所 2020年12月10日 日本國會於2020年6月24日通過由內閣府提出的「科學技術基本法等修正案」(科学技術基本法等の一部を改正する法律)[1],為整合修正科學技術基本法、科學技術與創新創造活性化法(科学技術・イノベーション創出の活性化に関する法律,下稱科技創新活性化法)等法律之包裹式法案。其旨在新增創新與人文科學相關科技發展目標,將之列入基本法。並因應此一立法目的調整,修正科技創新活性化法,增訂大學、研發法人出資與產業共同研究途徑,同時調整中小企業技術革新制度之補助規範。 壹、背景目的 日本內閣府轄下之整合科學技術與創新會議(総合科学技術・イノベーション会議)於2019年11月公布的「整合提振科學技術與創新目標下之科學技術基本法願景(科学技術・イノベーション創出の総合的な振興に向けた科学技術基本法等の在り方について)」報告書提出,科學技術與創新之議題高度影響人類與社會的願景,而近年聚焦之重點,則在於全球化、數位化、AI與生命科學之發展。該報告書並進一步揭示了科學技術基本法的修訂方向[2]:(1)納入「創新創造」(イノベーション創出)之概念;(2)自相互協力的觀點,併同振興自然學科與人文學科之科學技術發展;(3)允許大學與研發法人以自身收入資助具特定創新需求、或發展新創事業之外部人士或組織;(4)從鼓勵創新創造的角度,調適建構中小企業技術革新制度。 基於該報告書之決議要旨,內閣府於2020年3月10日向國會提出本次法律修正案,並於同年6月24日正式公告修正通過[3]。公告指出,AI、IoT等科學技術與創新活動的急遽發展,造就了人類社會推動願景和科技創新密不可分的現況。因之,本次修法除將人文科學項目納入基本法科學技術振興的範疇內,亦意圖落實同步推動科學技術及創新創造振興之政策構想,建構具整合性且二者並重發展的法制環境。 貳、內容摘要 本包裹式法案主要修正科學技術基本法與科技創新活性化法。首先,本次修正並列創新與科技發展為科學技術基本法規範主軸,因之,將該法更名為「科學技術與創新基本法」(科学技術・イノベーション基本法,下稱科技創新基本法),並修訂科技創新基本法立法目的為「提升科學技術水準」以及「促進創新創造」;同時,參照科技創新活性化法相關規定,明文定義創新創造為「透過科學發現或發明、開發新商品或服務、或其他具創造性的活動,催生新興價值,並使之普及,促成經濟社會大規模變化之行為」。同時,增訂科技與創新創造的振興方針主要包含:(1)考量不同領域的特性;(2)進行跨學科的整合性研究開發;(3)推動時應慮及學術研究與學術以外研究間的衡平性;(4)與國內外的各相關機關建立具靈活性且密切的合作關係;(5)確保科學技術的多元性與公正性;(6)使創新創造之振興與科學技術振興之間建立連動性;(7)有益於全體國民;(8)用於建構社會議題解決方案。此外,亦增訂研究開發法人、大學與民間企業之義務性規範,要求研究開發法人與大學應主動、且有計畫地從事人才養成、研發與成果擴散作為;而民間企業則應致力於和研發法人或大學建立合作關係,進行研發或創新創出活動。最後,基本法內原即有要求政府應定期發布「科學技術基本計畫」,作為未來一定期間內推動科技發展政策的骨幹,本次修正除將之更名為「科學技術與創新基本計畫」(科学技術・イノベーション基本計画),亦額外要求基本計畫應擬定培養研究與新創事業所需人才的施政方針。 另一方面,配合科技創新基本法修訂與政策方向,科技創新活性化法的修正重點則為:(1)新增本法適用範圍,擴及「僅與人文科學相關的科學技術」;(2)明文創設大學或研究開發法人得與民間企業合作進行共同研究的機制,允許大學或研究開發法人出資設立「成果活用等支援法人」,並給予人力與技術支援。其可將大學、研發法人持有之專利授權給企業、與企業共同進行研究或委外研究等,藉以推動研發成果產業化運用,透過計畫的形式,和企業間建立合作關係;(3)為鼓勵與促進中小企業與個人從事新興研發,調整設立「特定新技術補助金」制度,用以補助上述研發行為;每年度內閣府則需與各主管機關協議,就特定新技術補助金的內容與發放目的作成年度方針,經內閣決議後公開。同時,在特定新技術補助金下設「指定補助金」之類型,由國家針對特定待解決之政策或社會議題,設定研發主題,透過指定補助金的發放,鼓勵中小企業參與該些特定主題之研發。 參、簡析 本次科技創新基本法的修正,為日本國內的科技發展方向,作出法律層級的政策性宣示。除將人文學科相關的科技研發正式納入基本法的規範對象內,最主要的意義,在於使創新與科技發展同列為基本法的核心目的之一,顯示其科研政策下,創新與科技的推展實存在密不可分且相輔相成的關係,而有必要整合規劃。而科技創新活性化法一方面拓展大學、研發法人等學術性或公部門色彩較為強烈的機構與民間企業合作研發、成果產業化運用的途徑;另一方面,則延續近期相關政策文件強調創新價值應自社會需求中發掘的構想[4],設置了激勵中小企業投入社會議題解決方案相關研發的補助金類型。 我國立法體例上,同樣存在科學技術基本法的設計,用以從法制層級確立國內科技發展的基礎政策方向。於COVID-19疫情期間,技術研發的創新落地應用,亦已成為我國產出各式疫情應對方案、以及後疫情時期重要政策的關鍵之一。則如何延續我國對抗COVID-19過程中所掌握的協作與成果運用經驗,或可借鏡日本的作法,使創新能量能透過研發補助機制的優化,充分銜接政策與社會需求。 [1]〈科学技術基本法等の一部を改正する法律の公布について〉,日本內閣府,https://www8.cao.go.jp/cstp/cst/kihonhou/kaisei_tuuchi.pdf (最後瀏覽日:2020/12/08)。 [2]〈「科学技術・イノベーション創出の総合的な振興に向けた科学技術基本法等の在り方について」(概要)〉,日本內閣府,https://www8.cao.go.jp/cstp/tyousakai/seidokadai/seidogaiyo.pdf(最後瀏覽日:2020/12/08)。 [3]〈第201回国会(常会)議案情報〉,日本參議院,https://www.sangiin.go.jp/japanese/joho1/kousei/gian/201/meisai/m201080201047.htm(最後瀏覽日:2020/12/08)。 [4]〈中間とりまとめ2020未来ニーズから価値を創造するイノベーション創出に向けて〉,經濟產業省,https://www.meti.go.jp/press/2020/05/20200529009/20200529009-2.pdf(最後瀏覽日:2020/12/10)。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。