印度隱私權制度下兒童資料安全的保護現狀

印度電子資訊產業技術部(MeitY)2022年11月在網站上公布了個人資料資訊保護法草案(Digital Personal Data Protection Bill,以下簡稱該法案),並於2023年7月提交議會審查。目前印度民法不承認未成年人(未滿18歲者)具有自主簽訂契約的能力。因此,取得的兒童同意不具有法律效力,必須徵得父母或是監護人的同意才能合法蒐集兒童個人資料。

根據印度2022年個人資料資訊保護法案草案,任何未滿18歲的人都被歸類為「兒童」。該法案中同時限制專門向兒童發送的廣告,並且監管任何追蹤兒童行為的情況。目前國際隱私法(例如:歐盟通用資料保護條例 (GDPR)、加州消費者隱私法(CCPA)等)的兒童定義多在13至17歲之間。但考慮到兒童個人資訊的敏感性和潛在危害,印度政府採取了較保守嚴謹的路線。政府也已被授權制定有關處理兒童個人資訊的細則,特别是確保資料使用人不可使用可能對兒童造成傷害的個人資料。

根據社會發展狀況,兒童若每次在網路平台上進行活動時都需經過父母或是監護人同意不甚妥適,且根據前述說明,兒童界定年齡為18歲以下,若依照統一年齡範圍進行控管,實際執行上面臨窒礙難行之處。故修法者在對於該法案修改意見中,引用了其他國家隱私法中的不同年齡分類限制,以求降低年齡門檻限制,或是根據用戶的年齡制定差異化的授權要求。

另一個產生的爭議為,該如何驗證父母或是監護人的同意表示。法條中目前無明確規範何為「有效之同意表示」,現行各平台使用不同的方法獲得父母或是監護人的同意,目前有兩種方式,包括點選「同意」按鈕,或是在用戶條款中表示若使用服務等同於監護人同意。

關於兒童年齡之界定,是否將參考其他國家規範進行差異化設定,目前暫無明確定論(包括如何調整、年齡級距設定),根據資訊使用的普及,兒童年齡的界定可以預期的將會進行調整;關於如何有效驗證父母或是監護人的同意表示,目前在技術上大多服務商都偏好透過會員註冊時的同意按鈕或是用戶條款中列明若使用服務即代表同意這兩種方式認定,在這兩種方式之後,系統是否有設定驗證機制,以及需要何種驗證方式才可以認定父母或是監護人的同意表示是符合法律效力的,都需後續再進行研擬。

相關連結
你可能會想參加
※ 印度隱私權制度下兒童資料安全的保護現狀, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9098&no=57&tp=1 (最後瀏覽日:2026/03/06)
引註此篇文章
你可能還會想看
英國為打造有利新創環境著手討論修訂主板上市規則

  英國於三月份發布2021年度財政預算案,其中說明為鼓勵新創企業(快速成長型企業)發展而公布了八項策略,包含:立即提供救濟以抵抗新冠肺炎帶來的風暴、政府成立新基金「Future Fund: Breakthrough」投資新創企業、企業激勵員工措施(EMI)之重視、發行高科技技術簽證、培養下一世代人才、新創企業協助成長計畫(針對數位化及企業管理)、研發稅收減免計畫之修正以及英國主板上市規則之修正。   其中英國主板上市規則之修正部分,主要委託外部專家Lord Hill信行獨立審查。經審查後專家提出15項建議,包含: 財政部須向議會提交一份年度報告,並於報告中說明已採取或即將採取之專家建議。 財政部應隨時注意英國金融行為監理總署 (Financial Conduct Authority, FCA)是否為英國打造適合新創企業發展並擁有良好監管之公開市場。 應於優質板(Premium Listing)開放上市公司使用雙層股權結構,但須搭配相關監管措施以維持良好公司治理。 重新定義、命名標準板(Standard Listing)。 修正並降低股權分散之要求,並建議依據不同規模公司設置不同分散比例。 放寬特殊目的收購公司(Special Purpose Acquisition Company, SPAC)限制,同時為保護一般投資人建議新增「異議股東股份收買請求權」。 建議修正公開說明書相關部分,如:放寬豁免規定、允許使用替代文件。 建議考量於英國二次上市之企業毋庸另行製作公開說明書,而允許使用於其他國家上市之公開說明書。 建議修正董事以及發行人責任,促使其提供前瞻性訊息。 擴大科技研發公司上市時豁免獲利之要求至其他新創企業。 建議降低優質板歷史財務文件之要求。 考量如何運用科技提高一般投資人參與公司治理。 修改上市規則以利提高公司籌資之效率。 審查現行公開發行相關規則,確定各規則均有符合設立目的。 放寬廣泛金融生態系統限制,如:放寬養老基金投資限制、解決競爭稅收環境以及中小企業研發優惠。

英國成立英國衛生與社會照護資訊中心整合政府醫療資訊

  隨著英國國家健康服務(National Health Service, NHS)的改革,衛生和社會照護法(The Health and Social Care Act 2012)第九部分第二章,規範成立英國衛生與社會照護資訊中心(The Health and Social Care Information Centre, HSCIC)作為政府醫療資訊公開、整合與管理單位,此項規定於今(2013)年4月1日生效。   HSCIC並非正式的政府部會,而屬於執行行政法人(Executive Non Departmental Public Bodies),向衛生部長(Secretary of State for Health)負責,其職責除了蒐集、分析和傳播國家資料暨統計資訊以外,同時亦進行國家各層級的醫療資訊基礎設施的整合,作為醫療資訊數據公開的門戶;此外,HSCIC利用其行政法人的特性,將醫療組織視為客戶,提供不同的服務和產品,以協助其達到所需的資訊管理需求。透過HSCIS對於資訊的整合再公開,有助於在增進政府資訊透明性的同時,亦保障了資訊流動的效率和安全性。   其中HSCIC對於敏感性資料之應用,特別設立資料近用諮詢小組(Data Access Advisory Group, DAAG)予以處理。資料諮詢小組是每月定期由HSCIC所主持的獨立運作團體,須向HSCIC委員會負責。當HSCIC面臨敏感性資料或可識別個人資料之應用(包括是為了研究目的,和為了促進病人的醫療照護所需之應用)時,即交由資料近用諮詢小組會議來討論,以確保揭露該項資訊的風險降到最低。   從HSCIC的組織任務能輕易地發現其具有強大整合醫療資訊之功能,其未來發展勢必與過往飽受爭議的醫療資訊應用息息相關,因此相當值得我們持續觀察HSCIC的後續動態。

司法院擬設置智慧財產專門法院,並就智慧財產案件訂定特別之審理制度

  鑑於以知識產能為基礎而形成之專利、商標及著作權等智慧財產權,已成為促進國家產業升級及經濟發展之利器,而智慧財產權因無實體存在,故其權利之獲取及維護,端賴健全之智慧財產法制,故完善之智慧財產權爭訟程序,居於關鍵之地位。   智慧財產案件之審理,與一般訴訟相較,有其特殊性,例如其審理必須仰賴科技專業之協助,並經常涉及營業秘密之保護;又因智慧財產有關產品之市場更替週期短暫,因此其迅速審理之要求,具有等同於裁判正確之重要性。而針對智慧財產案件之特性,先進國家多設置專責審理智慧財產案件之專業法院,並就智慧財產訴訟,設有特殊之程序規定,以資因應。   反觀我國之專利法、商標法等智慧財產相關法律,就權利之取得及受侵害有關之訴訟,固亦設有若干特別規定,惟實際上仍有不足,未能充分符合智慧財產案件審理之需求,以致各界認為我國之智慧財產訴訟,仍然存有諸如證據蒐集手段欠缺,舉證困難,以及法官未具備法律以外之專業知識,並過度依賴鑑定結果,以致拖延訴訟,且裁判專業性不足等等缺點,未能符合社會之期待,甚至造成產業發展之障礙。   為改善我國智慧財產訴訟程序,發揮權利有效救濟之機能,司法院擬具「智慧財產法院組織法」及「智慧財產案件審理法」兩草案,期能藉由完善之智慧財產救濟制度,妥善保障智慧財產權人之權益,從而增進我國知識經濟之競爭力。   現今在智財案件處理實務上,權利人最常以提供擔保方式,聲請定暫時狀態處分,以禁止侵權者繼續製造、販賣及銷售商品。由於此舉可立刻讓侵權者沒辦法做生意,甚至逼迫下游供應商選邊站,殺傷力往往比訴訟的審理結果還大。考量智慧產案件之特性, 「智慧財產案件審理法」草案,將智慧財產權保全程序聲請門檻提高,要求聲請人應「釋明」理由,不能僅提供巨額擔保金,否則法官將不准其保全聲請。這項規定勢將促使企業更為審慎地提出「定暫時狀態」處分的聲請, 高科技企業未來將不能動輒利用假扣押等保全程序進行「騷擾」性商業戰術。   行政院院會於 4 月 19 日 已通過前二草案,但政院以附註意見方式,指智財法院應結合民、刑、行政「三合一」審理制度,對涉及行政處分「得」自為判斷,不能「應」自為判斷,期能快速解決訟爭,突破現行智財案件審理瓶頸。

美國國防部「人工智慧國防運用倫理準則」

  美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。   美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。   倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。   美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。   除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。

TOP