日本2017年5月30日修正施行之個人資料保護法,對於家長會蒐集、處理、利用個人資料之影響

  依日本2017年5月30日修正施行之個人資料保護法的最新規定,家長會、同學會、管委會等,就個人資料的蒐集、處理、利用,應與以蒐集、處理、利用個人資料為業之公司行號,在法律上承擔相當之責任、義務。

  因此自2017年5月30日起,家長會蒐集、處理、利用個人資料,需要注意以下四點:

  一、經當事人請求,應刪除其個人資料。   

  修正後的個人資料保護法施行後,明知未經或不確定是否經學生監護人同意,而取得其個人資料,都是違法的行為。但目前已經取得的個人資料,即使明知未經或不確定是否經學生監護人同意,也不需要立即刪除。惟若當事人請求刪除,則必須立即刪除。

  二、學校應善盡告知之義務,取得學生監護人之同意後,方得將其個人資料轉交家長會蒐集、利用、處理,。

  修正後的個人資料保護法允許由學校取得學生監護人之同意後,將其個人資料轉交家長會蒐集、利用、處理。但如果校方未充分盡到告知義務,則有違法之虞。實務上在九州的熊本曾經發生過這樣的案例,由於家長會未依法蒐集、處理、利用其個人資料,監護人提起告訴,最後雙方在二審達成和解。

  三、經過監護人同意,方得將其個人資料造冊並刊登照片

  由於須明確取得學生監護人之同意,方得將其個人資料造冊並刊登照片。因此為避免學校未善盡告知義務,建議家長會直接請監護人填妥加入家長會之同意書,並於同意書上載明授權蒐集、處理、利用其個人資料之範圍。

  四、遵從個人情報保護委員會的指導

  若家長會有非法蒐集、利用、處理個人資料之虞,個人情報保護委員會可以檢查並限期改正。屆期如未改正,可裁處罰金或懲役。

相關連結
※ 日本2017年5月30日修正施行之個人資料保護法,對於家長會蒐集、處理、利用個人資料之影響, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7874&no=55&tp=1 (最後瀏覽日:2026/04/25)
引註此篇文章
你可能還會想看
簡介人工智慧的智慧財產權保護趨勢

近期人工智慧(Artificial Intelligence, AI)的智慧財產權保護受到各界廣泛注意,而OpenAI於2023年3月所提出有關最新GPT- 4語言模型的技術報告更將此議題推向前所未有之高峰。過去OpenAI願意公布細節,係由於其標榜的是開源精神,但近期的報告卻決定不公布細節(如訓練計算集、訓練方法等),因為其認為開源將使GPT- 4語言模型面臨數據洩露的安全隱患,且尚有保持一定競爭優勢之必要。 若AI產業選擇不採取開源,通常會透過以下三種方式來保護AI創新,包括申請專利、以營業秘密保護,或同時結合兩者。相對於專利,以營業秘密保護AI創新可以使企業保有其技術優勢,因不用公開技術內容,較符合AI產業對於保護AI創新的期待。然而,企業以營業秘密保護AI創新有其限制,包含: 1.競爭者可能輕易透過還原工程了解該產品的營業秘密內容,並搶先申請專利,反過來起訴企業侵害其專利,而面臨訴訟風險; 2.面對競爭者提起的專利侵權訴訟,企業將因為沒有專利而無法提起反訴,或透過交互授權(cross-licensing)來避免訴訟; 3.縱使企業得主張「先使用權(prior user right)」,但其僅適用在競爭者於專利申請前已存在的技術,且未來若改進受先使用權保護之技術,將不再受到先使用權之保護,而有侵犯競爭者專利之虞,因此不利於企業提升其競爭力。 綜上所述,儘管AI產業面有從開源轉向保密的傾向,但若要完全仰賴營業秘密來保護AI創新仍有其侷限,專利依舊是當前各企業對AI領域的保護策略中的關鍵。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

何謂「創新採購」?

  歐盟為推動歐洲單一市場,在2014年2月26日通過三項新的政府採購指令,包括「一般政府採購指令」、「公用事業政府採購指令」、「特許採購指令」,其修正宗旨主要在於從下列四個改革方向改善採購招標程序: 1.簡化及採用彈性的政府採購程序 2.擴大適用電子招標; 3.改善中小企業參與招標程序; 4.於採購招標程序中納入策略性目的之考量,以實現「歐洲2020策略(European Strategy 2020)」之創新目標。   因此一般政府採購指令第26條明訂,要求會員國應提供除原有之公開招標(open procedure,政府採購指令第27條)、限制性招標(restricted procedure,政府採購指令第28條)程序外,應另外提供創新夥伴(innovation partnerships,政府採購指令第29條)、競爭談判(competitive procedure with negotiation,政府採購指令第30條)及競爭對話(competitive dialogue,政府採購指令第31條)三種程序。   其中最重要者,在於將政府採購視為其達成創新政策之政策工具,在招標程序中推動所謂的創新採購(Public Procurement for Innovation, PPI)及商業化前採購(Pre-commercial procurement, PCP)。   前者係指創新解決方案幾乎或已經少量上市,不需要再投入資源進行新的研發(R&D)工作。而後者則針對所需要改善的技術需求,還沒有接近上巿的解決方案,需要再投入資源進行新的研發。採用競爭方法及去風險,經由一步一步的方案設計、原型設計、開發及首次產品測試來比較各替代方案的優缺點。

加拿大政府致力捍衛個人資料隱私

  加拿大財政委員會主席克萊門(Tony Clement),概述了加拿大政府對於保護加拿大公民隱私的步驟,並詳細的列出政府機關官員對於隱私保護違犯行為的案件量。   政府對於看待人民隱私保護這件事情是非常重視的,特別是如何妥當的處理具敏感性個人資料的這個部分,我們認為是關鍵性的重點」部長克萊門表示。   人力資源及技能發展部部長芬蕾(Diane Finley)說:「我們對於所有違犯事件都會非常認真的面對,任何錯誤都是不能被接受的,為了預防和對抗將來可能發生的事故,我已經下達指示要求徹查本部門下所有員工處理個人資料的作業程序、更新網路防護機制以禁止入侵,機關人員需接受強制性的教育訓練,學習如何處理敏感性和個人資訊。我們政府一直持續推動保護個人資訊的安全維護措施、強化隱私保護、當有任何事故發生時,會執行嚴格的通報機制及規劃完善的應變措施」。   自2006年以來,政府所採取加強隱私保護,並實行嚴格通報機制的新興措施包括:   1.向隱私權委員會通報隱私侵害事故,並採取迅速措施進行解決   2.完成隱私衝擊評估,以建置新的或實質性修正相關措施與行動   3.徹底落實隱私權保護措施命令,要求所有聯邦政府機構必須建置解決侵犯隱私事件的應變計畫   4.制訂隱私權保護政策,要求所有聯邦政府機構,若發現有任何可能侵害加拿大公民隱私的行為時,必須立即通知隱私權委員會辦公室   5.為因應各類新型侵害隱私權之事件,應持續建立新的應變指引,協助各機構有統一的辨識標準和阻止措施。   「在最新年度報告中,隱私權委員會指出,退伍軍人事務局已經明確的公告隱私權保護是現階段非常重要的業務項目,該局正積極建立相關維護措施和計畫。」布萊尼部長表示。   「我們將繼續努力,與隱私權委員會辦公室密切合作,確保加拿大公民的隱私權保護」,部長克萊門回應道

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

TOP