新加坡個人資料保護委員會2017年7月發布資料共享指引

  新加坡個人資料保護委員會(Personal Data Protection Commission, PDPC)於2017年7月27日發布資料共享指引(GUIDE TO DATA SHARING),該指引協助組織遵守新加坡2012年個人資料保護法(Personal Data Protection Act 2012, PDPA),並提供組織內部和組織之間的個資共享指引,例如得否共享個資,與如何應用,以確保符合PDPA共享個資之適當方法;並得將特定資料共享而豁免PDPA規範。該指引共分為三部分,並有附件A、B。

  指引的第一部分為引言,關於資料共享區分為三種類型探討:

  1. 在同一組織內或關係組織間共享
  2. 與資料中介機構共享(依契約約定資料留存與保護義務)
  3. 與一個或多個組織共享(在不同私部門間、公私部門間)

  共享包含向一或多組織為利用、揭露或後續蒐集個資;而在組織內共享個人已同意利用之個資,組織還應制定內部政策,防止濫用,並避免未經授權的處理、利用與揭露;還應考慮共享的預期目的,以及共享可能產生的潛在利益與風險。若組織在未經同意的情況下共享個資,必須確保根據PDPA的相關例外或豁免之規定。

  指引的第二部分則在決定共享資料前應考慮的因素:

  1. 共享目的為何?是否適當?
  2. 共享的個資類型為何?是否與預期目的相關?
  3. 在該預期目的下,匿名資料是否足以代替個資?
  4. 共享是否需要得同意?是否有例外?
  5. 即使無須同意,是否需通知共享目的?
  6. 共享是否涉及個資跨境傳輸?

  上述因素還能更細緻對應到附件A所列應思考問題,附件B則有相關作業流程範例。

  指引的第三部分,具體說明如何共享個資,與資料共享應注意規範,並提供具體案例參考,值得作為組織遵守新加坡個人資料保護規範與資料共享之參考依據。

相關連結
※ 新加坡個人資料保護委員會2017年7月發布資料共享指引, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7861&no=0&tp=1 (最後瀏覽日:2026/05/01)
引註此篇文章
你可能還會想看
何謂「LAB- FAB - APP- Investing in the European future we want」?

  歐盟執委會研究創新總署之高級專家小組(High Level Group)2017年7月3日提交名為《研究、生產、應用—投資於我們所期待的歐洲未來》(LAB- FAB - APP- Investing in the European future we want)報告,呼籲歐盟及成員國大幅增加對研發創新的投入。該報告認為過去20年,工業化國家2/3的經濟增長歸功於研發創新。歐洲必須妥善利用大量知識,將創新潛力轉化為現實的經濟增長,從而促進歐洲繁榮,解決社會挑戰。該報告提出11項建議:(1)將歐盟及成員國的預算優先考慮投入研發創新,將下一個歐盟研發創新計畫的預算提高一倍;(2)建立可創造未來市場的歐盟創新政策;(3)投入未來教育培訓,投資創新人才;(4)編制能夠發揮更大影響力的歐盟研發創新計畫,堅持目標、完善評估系統以增加計畫靈活度;(5)採取任務導向、焦點式措施應對全球挑戰;(6)使歐盟資金分配更加合理,實現與歐盟結構性基金的協同效應;(7)進一步簡化計畫管理模式,更注重效果而不是過程;(8)激勵公眾參與創新;(9)更好地促進歐盟及成員國的研發創新投資合作;(10)使國際合作成為歐盟研發創新的特徵,通過共同資助等方式,開放歐盟研發創新計畫;(11)將歐盟研發創新品牌化,擴大研究創新成果及作用。

美國專利法上的「銷售阻卻」(On-Sale Bar)

  美國專利制度中的「銷售阻卻」(On-Sale Bar)係指:發明銷售超過一年以上便喪失新穎性,不授予專利。   「新穎性」為美國專利法上可專利性要件之一。35 USC §102(a)(1)說明新穎性先前技術的例外(Novelty; Prior Art):「專利申請應被核准,除非該發明已申請專利、曾在紙本文件敘述、公開使用(In public use)、販售(On sale)、或以其他方式公開(Or otherwise available to the public)。」35 USC §102(b)(1)則給予專利發明人和申請人1年新穎性優惠期(Grace Period)。將前後兩個條文合併來看--假設該發明銷售超過一年以上便不得再授予專利。   「銷售阻卻」的立法意旨在於:避免發明人或其權利受讓人先將發明商業化並獲利,待競爭者進入市場後才提出專利申請,藉此有效地延長專利保護的期間,進而產生獨占(Monopoly)。   1998年,美國最高法院於Pfaff v. Wells Electronics (1998)一案,揭示銷售阻卻的要件:(1)該產品必須是商業上販售的標的;(2)該發明必須已經準備好要進行專利申請。唯有這兩個要件成就,才開始計算「一年」。

Regolith的試煉:太空物質私有化

  美國國家航空暨太空總署(National Aeronautics and Space Administration,NASA)向企業購買月球Regolith(岩屑層)與岩石物質,並於2020年9月提出《月球Regolith採購工作績效聲明》(Lunar Regolith Purchase Request Performance Work Statement)。惟月球的物質,是否可以開採?   依據《各國探索與應用外太空、月球暨其他天體之活動管理原則條約》(Treaty on Principles Governing the Activities of States in the Exploration and Use of Outer Space, Including the Moon and Other Celestial Bodies)第2條,外太空、月球與其他星體,非任何國家可藉由使用、占領與其他方式,或應用國家經費,而宣稱擁有主權。針對NASA的月球物質採購計畫,是否合乎該條約?NASA署長Jim Bridenstine指出,Artemis計畫增加商業參與,要求企業蒐集小型的月球「塵埃」(dirt),或月球表面的岩石。Jim Bridenstine並認為此項提案,充分遵守該條約與其他國際義務。申言之,NASA認為月球之物質,具有私有化之可能性。   為採購企業蒐集之月球物質,NASA擬定《月球Regolith採購工作績效聲明》,規範企業的義務為:1、自月球表面蒐集50克至500克的Regolith或岩石物質;2、提供NASA蒐集與物質的影像,該資料足以識別蒐集地點為月球表面;3、就地(in-place)移轉NASA蒐集物質的所有權,此些物質並將成為NASA得以使用的私有財產(sole property)。企業得以決定在月球表面的任何地點蒐集,且無須評估蒐集的材料;NASA係採購蒐集狀態(“as-collected” condition),並有權利獨立確認企業蒐集物質的聲明。亦即企業的任務為採購物質,並提出證明;對月球物質的評估,則由NASA為之。   企業對NASA採購月球物質之履行,須於2024年以前完成;NASA對契約的獎勵,並不以月球物質蒐集的數量為基準。NASA對企業採購月球物質的支付依據:10%來自於企業完成NASA概念審查的提案;10%係企業為此蒐集任務,而由企業系統發射航空器至太空;80%為達成移轉NASA太空物質的所有權。另外,機器人登陸器(robotic lander)的設計與建構,並非屬NASA向企業徵集太空物質之內容。換言之,NASA之採購計畫並非強調太空物質之蒐集數量,而係著重於太空物質所有權之移轉。   綜上所論,NASA向企業採購月球Regolith與岩石物質,並以所有權之移轉為主,開啟太空物質私有化的可能性。

歐盟執委會公布《可信賴的AI政策及投資建議》

  歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。   該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。   在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。

TOP