新加坡個資保護法責任指南

  新加坡個人資料保護法(Personal Data Protection Act 2012, PDPA)的基本原則之一在於可歸責性(Accountability)之建立,原因在於個資保護的責任歸屬,是組織對個資的持有與控制所為的承諾與責任表示。因此,PDPA第11、12條之法遵責任,組織必須對所持有或控制的個資負責,並且需制定並實施資料保護政策、溝通並告知員工相關政策、及履行PDPA義務所必須施行之流程與作法。於組織責任而言,PDPA雖有強制性義務責任,但應忖量組織內部責任歸屬的措施,而非僅將責任落於遵守法律的程度,組織必須從合於法規的方法轉為基於責任歸屬的方法來管理個人資料。

  從而,該指南在政策、人員、流程等領域中透過資料生命週期的循環,確立組織責任歸屬。從落實良好的責任制始於組織領導力的概念出發,設定組織管理高層之職責與調性,繼而規劃處理個資及管理資料風險的方法。並由組織人員治理面向,確立溝通資訊與員工培訓知識與資源。除此之外,也在特定流程設置上,紀錄個人資料流動,了解如何收集、儲存、使用、揭露、歸檔或處理個人資料為流程的首要任務,繼而確認資料保護層面主要的差距與需要改進的領域。再將資料保護實踐於業務流程、系統、商品或服務。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
你可能會想參加
※ 新加坡個資保護法責任指南, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8319&no=0&tp=1 (最後瀏覽日:2026/04/03)
引註此篇文章
你可能還會想看
歐盟通過《歐盟綠色債券規則》,建立綠色債券監管框架

歐盟於2023年10月11日發布《歐洲綠色債券監管及環境永續債券市場與永續連結債券自願性揭露規則》(Regulation on European Green Bonds and optional disclosures for bonds marketed as environmentally sustainable and for sustainability-linked bonds,下稱《歐洲綠色債券規則》),預計於2023年12月20日生效,針對在歐盟境內發行之綠色債券建立一套監管框架,課予欲使用「歐洲綠色債券」(European Green Bond)或「EuGB」等名稱發行環境永續債券的發行人一定義務,促進綠色債券的一致性和可比性,以保障投資人。綠色債券是發展綠色技術、能源效率和提升資源運用以及其他永續相關基礎設施投融資的主要工具之一,本規則之通過也被視為落實歐盟永續成長融資策略以及向碳中和、循環經濟轉型的一大進展。 《歐洲綠色債券規則》規範重點如下: 1.資金用途限制:《綠色債券規則》所有透過歐盟綠色債券募得的資金,原則上均必須投資於符合《歐盟永續分類標準》(EU Taxonomy)技術篩選標準的永續經濟活動,只有在所欲投資的經濟活動類別尚未被納入該標準時得為例外,且以總額之15%為限; 2.資訊揭露:綠色債券之發行人有義務揭露該債券之概況介紹(Factsheet)、資本支出計畫、資金使用分配報告、衝擊報告,並於債券公開說明書敘明資金用途,並得選擇進一步說明該債券之資金如何與自身企業整體環境永續目標相結合; 3.外部審查:前述資訊均須由已向歐洲證券與市場管理局(European Securities and Markets Authority)註冊之外部機構進行審查,以確保其準確性及可靠性。

加拿大決定將網路中立規範適用至行動無線網路

  加拿大廣播電視及電信委員會(Canadian Radio-Television and Telecommunications Commission,CRTC)於2009年10月之Telecom Regulatory Policy CRTC 2009-657中,公佈網路流量管理架構(Internet Traffic Management Pratices,ITMPs)之決定,作為管理ISP業者進行差別待遇之依據。該管理架構是加拿大維護網路中立性原則的實踐。   當時CRTC並未決定該架構是否一併適用於行動無線網路,直至2010年7月CRTC發布Telecom Decision CRTC 2010-445,決定將該規則一併適用於行動無線網路,以解決潛在的差別待遇行為發生於行動無線資料服務。   根據2009年之管理架構,CRTC宣示了四項管理原則: 1.透明度(Transparency) ISP必須透明揭露他們所使用的ITMPs,使消費者能根據這些資訊決定服務的購買與使用。例如經濟條件的透明,使消費者能夠有符合其支付意願之選擇,使市場機制能夠正常運作。 2.創新(Innovation) 解決網路壅塞最基本的方式是透過對網路之投資,也仍是最主要的解決方案。但依靠投資並不能解決所有的問題,CRTC認為,ISP業者之ITMPs在某些時候,仍需要適當的管理措施介入。業者之ITMPs應針對明確的需求而設計,不可過度。 3.明確(Clarity) ISP業者必須確保他們所使用的ITMPs不會有不合理的歧視,也不會有不合理的優惠。CRTC所建立之ITMP的管理架構,提供一個清晰和結構化的方法,來評估既有與未來的ITMPs是否符合加拿大電信法(Telecommunications Act)第27(2)條規範。 4.競爭中立(Competitive neutrality) 對於零售服務,CRTC將採取事後管制原則,即接受消費者投訴後處理之原則,進行管制評估。而在批發服務部份,則較為嚴格。亦即,當ISP在批發服務使用了比零售服務較多的限制性ITMPs時,必須得到CRTC之批准。當ISP將ITMPs用於批發服務時,必須遵守CRTC之管理架構,不得對次級ISP(Secondary ISP)的流量造成顯著和不相稱的影響。   值CRTC並將採取行動以確保因實施ITMPs而收集之個人資訊,不被洩漏與使用至其他目的。   在本項決定公佈之後,代表加拿大提供接取網際網路的ISP,無論使用何種技術,都將適用同樣的ITMPs管理原則。在Google-Verizon於美國遊說網路中立性應不適用於行動無線網路之時,CRTC之決定可做為不同方向之參考。

FDA發佈「拒絕接受510(K)審查申請之政策」指導文件草案

  醫療器材在美國上市所需依循的途徑,為申請510(k)審查或上市前審查(Premarket Approval, PMA)。順序上第一步,必須在90天前向美國食品藥物管理局(U.S. Food and Drug Administration, FDA)提出「上市前通知」(Premarket Notification, PMN)申請。所謂的510(K),係指美國《食品、藥物及化妝品法》(Federal Food, Drug, and Cosmetic Act, FD&C Act)第510節之規定,在申請的流程中,FDA會審查廠商所提出的佐證,是否具備與已上市的相同器材一樣之「實質相等性」(Substantial Equivalence),若不具備「實質相等性」,即必須進入PMA申請程序。   FDA指出過往機關接受許多不適當的501(K)審查申請,而必須要求這些不適當的申請廠商進一步補充文件,以進行實質審查。FDA指出這樣的程序,進行過度頻繁的審查,而浪費不少寶貴的資源及人力。FDA於2012年8月10發佈「拒絕接受510(K)審查申請之政策」指導文件草案。作為改善與加強501(K)申請流程之效率與有效性。新的指導文件草案之改善目標,係要求廠商必須提出傳統(Traditional)、特殊(Special)、簡略(Abbreviated)三種不同的申請所需之審查文件,FDA會先進行審查文件是否具備的預先審核,始進行實質審查。廠商必須依照指導文件草案內含的核對表(Checklist)所規定必須提交之審查文件,FDA有15天的時間回應廠商是否完成繳交,或要求廠商在新的15天之內補件,而承認 (Acceptance)形式審查完備,始進行實質審查。廠商亦可針對缺繳之文件,說明不提供之理由,並提出相關證明。指導文件草案提供以下幾個準則,提供審查機關審視核對表完備與否: 該產品是否為器材; 該項申請之對象是否正確; 是否為適當合法510(k)申請; 是否有相同的器材經PMA程序核准上市; 所提出的臨床數據,申請者是否受限於「申請規範政策」(Application Integrity Policy, AIP)。   FDA透過這樣預先審查之方式,檢視廠商所提出之申請,是否符合形式的要件,而決定是否進行實質審查,以避免浪費行政機關的資源與人力進行不適當的審查,希冀改善FDA目前501(k)審查申請制度之效率與有效性。

梵諦岡與IBM、微軟聯合呼籲對臉部辨識等侵入性技術進行監管

  2020年2月28日梵諦岡教宗與兩大科技巨頭IBM及微軟聯合簽署「羅馬呼籲AI倫理道德」文件,支持制定人工智慧(AI)發展倫理與道德規範,並特別呼籲應針對臉部辨識等侵入性技術進行監管。在聯合文件上特別提及臉部識別技術潛在之濫用風險,例如警察會使用臉部辨識系統調查犯罪行為、《財富》500強公司使用AI審查求職者,這兩個例子均具有潛在且高度之風險,使用不正確或是具有偏見之AI判斷均可能會造成傷害。誠如方濟各在致辭中說:「人工智慧記錄個人資料,並使用於商業或政治目的,而且通常是在個人不知情之情況下,這種不對稱,將使少數人了解我們的一切,但我們卻對他們一無所知,這將使批判性思維和對自由的自覺變得遲鈍,不平等現象急遽擴大,知識和財富在少數人手中累積,將對民主社會構成重大風險。」   此次會議希望在國家與國際層面上共同努力促進AI道德規範,並根據以下原則來發展和使用人工智慧。第一,良好的創新:人工智慧系統必須是可理解得,並且在包容性方面必須考慮到所有人的需求,以便每個人都能受益。第二,責任:設計和實施人工智慧者必須承擔責任和保持透明度。第三,公正性:避免根據偏見進行創造或採取行動,從而維護人類平等和尊嚴。第四,可靠性:人工智慧系統必須能夠可靠的運行。第五,安全和隱私:人工智慧系統必須安全運行並尊重用戶的隱私。   目前尚不清楚其他技術公司是否會簽署該文件,以及簽署人將如何實施,但教宗與兩大科技巨頭史無前例的合作,為人工智慧未來發展方向提供遠見卓識,能更加深入的去思考AI的道德意涵以及它將如何與人類更好的合作、互動,互利共生,相輔相成。

TOP