新加坡公布「於安全性應用程式負責任地利用生物特徵識別資料指引」協助組織合理利用生物特徵識別資料

  新加坡個人資料保護委員會(Singapore Personal Data Protection Commission, PDPC)於2022年5月17日,公布「於安全性應用程式負責任地利用生物特徵識別資料指引」(Guide on the Responsible Use of Biometric Data in Security Applications),協助物業管理公司(Management Corporation Strata Title, MCST)、建築物及場所所有者或安全服務公司等管理機構,使各管理機構更負責任地利用安全攝影機和生物特徵識別系統,以保護蒐集、利用或揭露的個人生物特徵識別資料。

  隨著安全攝影機等科技應用普及化,管理機構以錯誤方法處理個人生物特徵識別資料之情形逐漸增多,因此PDPC發布該指引供管理機構審查其措施。其中包括以下重點:

(1)定義生物特徵識別資料包含生理、生物或行為特徵,及以此資料所建立之生物特徵識別模版;

(2)說明維安攝影機及生物特徵識別系統運用所應關鍵考量因素,如避免惡意合成生物特徵之身分詐欺、設定過於廣泛而使系統識別錯誤等情形,並舉例資料保護產業最佳範例,如資料加密以避免系統風險、設計管理流程以控管資料等;

(3)說明生物特徵識別資料在個資法之義務及例外;

(4)列出實例說明如何安全監控之維安攝影機,並提供佈署建築物門禁或應用程式存取控制指引,例如以手機內建生物識別系統管理門禁,以取代直接識別生物特徵,並有提供相關建議步驟及評估表。

  該指引雖無法律約束力,仍反映出PDPC對於安全環境中處理生物特徵識別資料之立場。而該指引目前僅針對使用個人資料的安全應用程式之管理機構應用情境,並未涵蓋其他商業用途,也未涵蓋基於私人目的使用安全或生物特徵識別系統之個人,如以個人或家庭身分使用居家高齡長者監控設備、住宅生物特徵識別鎖等應用情境。

相關連結
你可能會想參加
※ 新加坡公布「於安全性應用程式負責任地利用生物特徵識別資料指引」協助組織合理利用生物特徵識別資料, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8861&no=0&tp=1 (最後瀏覽日:2026/04/15)
引註此篇文章
科法觀點
你可能還會想看
中國大陸首例遊戲玩家集體請求網路遊戲公司回復遊戲中的團隊

  中國大陸首例因在網絡遊戲中花重金組建的團隊遭遇離奇解散,導致來自多個省市的遊戲玩家聯手於河南省對網絡遊戲運營商提起訴訟。     代表玩家提出訴訟的原告在《魔域》中投入許多時間與金錢,建立「情誼無痕」軍團,最高時軍團人數達2000餘人。由於軍團的升級和日常維護開支需要眾玩家共同出力出錢,「情誼無痕」被無故被解散所影響的玩家人數眾多。     被告網龍公司主張遊戲帳號註冊時所輸入的身份證並非原告本人、服務器電腦記錄顯示有人登錄「落花有意」帳號並將「情誼無痕」軍團解散,由此可推斷該帳號曾有兩人以上使用,故不能排除該帳號曾借與朋友使用或被他人盜號使用而將軍團解散。     每法官與原被告雙方進行調解,因雙方意見分歧,最終未達成調解協議。玩家表示如果網龍公司不能給予合理的答覆,他們將聯合分佈在全國各地的其他玩家陸續不斷地起訴網龍公司。

英國商業、能源及產業策略部發布智慧饋電保證公眾諮詢

  英國商業、能源和產業策略部(Business, Energy and Industrial Strategy,以下簡稱BEIS)於2019年1月提出智慧饋電保證(Smart Export Guarantee,以下簡稱SEG),於此保證下,BEIS將擬定一套不同於躉購制度之政策框架,使小型生產消費者(prosumer)所生產之綠色電力,可於此一政策框架之保障下,與售電業者議約,並將電力售予售電業者,以減輕英國政府預計於今年3月廢除躉購制度所帶來之衝擊。   SEG重要之內容包含: (1) SEG課予大型售電業(用戶數大於25萬之售電業)收購小型生產消費者所生產之綠色電力之義務。 (2) 小型生產消費者所生產之綠色電力之交易價格及相關契約內容,將交由售電業者與小型生產消費者自行協議。但SEG要求售電業業者對於綠色電力之收購價格不可低於(或等於)零。 (3) 於「負電價」期間,即便小型生產消費者將綠色電力輸入電網,售電業者也不得因此對消費者課徵任何費用。 (4) 小型生產消費者所生產之綠色電力之計算方式,必須以實際測得之產出電力為準,不得以預估之容量為準,亦即,小型生產消費者如裝設智慧電表而可記錄綠色電力生產量時,其生產之綠色電力始有被收購之可能。 (5) 小型生產消費者之再生能源發電設備,不論容量大小,皆應符合躉購制度下之再生能源發電設備之規格標準,但不得超過5MW。   此一政策立意良善,然仍有不少質疑聲音,其中的聲音不乏:(1)BEIS如何確保小型生產消費者所獲取之契約價格,可以真實反映市場之真正應有之電價?(2)SEG於今年3月躉購費率制度廢除後半年間,可能尚未會出現定案之政策框架,其間將會產生立法之真空狀態,其間要如何減緩制度改革對於產業帶來之衝擊?(3)政府所主導之小型消費者端之智慧電表之建置,於英國仍緩如牛步,而智慧電表對於小型消費者而言,如其欲主動裝設,每具將造成300歐元之額外支出,同時每年需額外支出50歐元之維修費用,此一事實對於SEG之推行無疑將造成阻礙。

美國職業安全及健康研究院﹙NIOSH﹚在奈米風險控管上的突破性進展

  美國職業安全及健康研究院﹙NIOSH﹚是美國發展奈米科技的重要政府單位之一。近來,其頻頻透過國際組織的運作來處理與奈米科技有關之職業安全與健康影響問題。NIOSH首長John Howard表示,在國際層次上,科學家及決策者皆明瞭處理與奈米材料製造及產業使用所引致之職業病或職災,是當下最重要的工作之一。而由於NIOSH在促進世界性科學對話上,始終扮演者厥功甚偉的角色,因而在奈米科技發展初期,其亦積極協助此一科技能夠充分考慮安全及健康問題,發展出具全球協調性的技術方法,並有助於美國在國際市場的領先地位。而其近期主要成就在於以下三個部分: 1.今﹙2007﹚11月29日,經濟合作暨發展組織﹙OECD﹚人造奈米材料工作小組通過NIOSH-Led計畫,負責執行奈米材料暴露控制與測量等相關資訊之交換,同時透過領導小組,與會員國共同聚焦商討一些足以引起公眾意識的議題,例如在職業環境中之暴露測量與減輕。 2.其次,在今年12月4日至同月7日的國際組織會議中,ISO TC229表決通過有關奈米科技在職業環境之安全與健康規範的報告初稿,此報告係以NIOSH所發表一份名為“Approaches to Safe Nanotechnology”的報告作為基礎,而繼續由其發展與修正。本報告初稿送至ISO技術委員會審查,委員會認為報告內容涵蓋完整的技術性工作,且其未來影響將遍及全球,而為全球組織所關切。 3.此外,在今年12月2日,NIOSH另參與世界衛生組織﹙WHO﹚之職業健康合作中心全球聯網會議,當次會議之焦點在於奈米科技,會中NIOSH代表負責報告工程奈米粒子在職業安全及衛生上所遭遇之挑戰現況。本次會議中將決定WHO合作機制如何發展運作,以避免暴露於可能有害的工程奈米粒子。   整體而言,關於奈米科技之安全與健康影響及其相關應用的研究,NIOSH統整建置了一套策略性工作計畫,透過這些研究專門處理一些重要問題,包括某些對於評估風險及控制暴露極為有效的科學資訊。除了研究之外,NIOSH亦積極參與國際組織活動,可以預見其對奈米科技未來發展之影響將無遠弗界。

美國加州「Asilomar人工智慧原則決議」

  美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下: (1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。 (2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。 (3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。 (4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。 (5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。 (6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。 (7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。 (8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。 (9)人工智慧所產生之責任,應由設計者以及建造者負擔。 (10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。 (11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。 (12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。 (13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。 (14)人工智慧之技術應盡力滿足越多人之利益。 (15)人工智慧之經濟利益,應為整體人類所合理共享。 (16)人類對於人工智慧之內在目標應享有最終設定權限。 (17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。 (18)人工智慧所產生之自動化武器之軍備競賽應被禁止。 (19)政策上對於人工智慧外來之發展程度,不應預設立場。 (20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。 (21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。 (22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。 (23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。

TOP