新加坡個人資料保護委員會(PDPC)為讓企業能妥適的遵循2012年發布的個人資料保護法(Personal Data Protection Act/PDPA),於2013年9月發布個人資料保護法(PDPA)的執行指引文件:「PDPA關鍵概念指導方針(Advisory Guidelines on Key Concepts in the PDPA)」,針對各項如何蒐集、處理及利用個人資料的要求與義務,提供細節性說明及應用範例。執行指引文件的發布,是源自於公眾在實際操作法遵要求時,所發生的執行困難、疑義和衍生的建議和意見,彙整後進行法規釋疑和舉例。此份文件的要求係立基於實用主義及「企業友善(business-friendly)」的理念,幫助機構調整業務運作流程以及妥善的遵守法律的規定。
執行指引文件提供關鍵名詞的詮釋,例如「個人資料」在PDPA裡的定義為:任何可以識別個人、不拘形式及真實性的資訊;針對「謝絕來電條款(Do not call)」的遵循方式亦有細緻化的說明;就各項不同的具體子議題,清楚的提供常識性的措施(Common-Sense Approach)供機構採用,讓法規要求合乎常理,使個人資料保護與企業因需求而對個人資料進行蒐集、利用和揭露之行為間取得衡平。
新加坡個人資料保護法(PDPA)兩大立法目的:強化個人對自己個人資料的資訊控制權;使新加坡因提供充分的安全維護機制而受企業信任,強化新加坡的經濟競爭力與地位。另外,相較於其他國家在國際傳輸上有較嚴格的限制(必須有相同等級的個人資料保護立法為傳輸前提),新加坡的法制理念是僅讓企業遵守最低限度的安全維護要求後,便能將個人資料進行國際傳輸,這樣較彈性的法制設計讓新加坡有望成為亞太地區的資料與研究中心樞紐。
所謂「尖端大型研究設施」,系指日本《特定尖端大型研究設施共用促進法》(特定先端大型研究施設の共用の促進に関する法律)中,由國立研究法人所設置,並受該法規範之研究設施。 該法之目的係在設置被認為不適合於國立實驗研究機關,或進行研究之獨立行政法人中重複設置之以高額經費購置的該研究領域中最尖端技術之研究設施設備,並於該研究領域中進行多樣化研究之活用,以發揮其最大之價值。 目前受到該法規定的研究設施包括特定同步輻射研究設施,其包含了「SPring-8」及「SACLA」等兩座大型同步輻射研究設施,與特定超級電腦設施,亦即超級電腦「京」,以及包括了高強度質子加速器「J-PARC」之一部的特定中子輻射研究設施;以SPring-8為例,該設施之網站上登載有使用情報、使用申請及參考資料等,供欲使用該設施之研究人員參考。
美國國家安全局發布「軟體記憶體安全須知」美國國家安全局(National Security Agency, NSA)於2022年11月10日發布「軟體記憶體安全須知」(“Software Memory Safety” Cybersecurity Information Sheet),說明目前近70%之漏洞係因記憶體安全問題所致,為協助開發者預防記憶體安全問題與提升安全性,NSA提出具體建議如下: 1.使用可保障記憶體安全之程式語言(Memory safe languages):建議使用C#、Go、Java、Ruby、Rust與Swift等可自動管理記憶體之程式語言,以取代C與C++等無法保障記憶體安全之程式語言。 2.進行安全測試強化應用程式安全:建議使用靜態(Static Application Security Testing, SAST)與動態(Dynamic Application Security Testing, DAST)安全測試等多種工具,增加發現記憶體使用與記憶體流失等問題的機會。 3.強化弱點攻擊防護措施(Anti-exploitation features):重視編譯(Compilation)與執行(Execution)之環境,以及利用控制流程防護(Control Flow Guard, CFG)、位址空間組態隨機載入(Address space layout randomization, ASLR)與資料執行防護(Data Execution Prevention, DEP)等措施均有助於降低漏洞被利用的機率。 搭配多種積極措施增加安全性:縱使使用可保障記憶體安全之程式語言,亦無法完全避免風險,因此建議再搭配編譯器選項(Compiler option)、工具分析及作業系統配置等措施增加安全性。
間隙網路社會之推動-以歐盟資通訊法制政策之發展為例 歐盟執委會發布指引以因應《人工智慧法》「禁止的人工智慧行為」條文實施歐盟執委會於2025年2月4日發布「關於禁止的人工智慧行為指引」(Commission Guidelines on Prohibited Artificial Intelligence Practices)(下稱「指引」)」,以因應歐盟《人工智慧法》(AI Act,下稱AIA)第5條關於「禁止的人工智慧行為」之規定。該規定自2月2日起正式實施,惟其內容僅臚列禁止行為而未深入闡釋其內涵,執委會特別制定本指引以避免產生歧義及混淆。 第5條明文禁止使用人工智慧系統進行有害行為,包括:利用潛意識技術或利用特定個人或群體之弱點進行有害操縱或欺騙行為、實施社會評分機制、進行個人犯罪風險預測、執行無特定目標之臉部影像蒐集、進行情緒識別分析、實施生物特徵分類、以及為執法目的而部署即時遠端生物特徵識別系統等。是以,指引就各禁止事項分別闡述其立法理由、禁止行為之具體內涵、構成要件、以及得以豁免適用之特定情形,並示例說明,具體詮釋條文規定。 此外,根據AIA規定,前述禁令僅適用於已在歐盟境內「投放市場」、「投入使用」或「使用」之人工智慧系統,惟對於「使用」一詞,並未予以明確定義。指引中特別闡明「使用」之定義,將其廣義解釋為涵蓋「系統投放市場或投入使用後,在其生命週期任何時刻的使用或部署。」 指引中亦指出,高風險AI系統的特定使用情境亦可能符合第5條的禁止要件,因而構成禁止行為,反之亦然。因此,AIA第5條宜與第6條關於高風險AI系統的規定交互參照應用。 AIA自通過後,如何進行條文內容解釋以及法律遵循義務成為各界持續討論之議題,本指引可提升AIA規範之明確性,有助於該法之落實。