歐洲網路暨資訊安全局(European Union Agency for Network and Information Security, ENISA)於2017年11月20號發布了「重要資訊基礎設施下智慧聯網之安全基準建議」。該建議之主要目的乃為歐洲奠定物聯網安全基礎,並作為後續發展相關方案與措施之基準點。
由於廣泛應用於各個領域,智慧聯網設備所可能造成之威脅非常的廣泛且複雜。因此,了解該採取與落實何種措施以防範IOT系統所面臨之網路風險非常重要。ENISA運用其於各領域之研究成果,以橫向之方式確立不同垂直智慧聯網運用領域之特點與共通背景,並提出以下可以廣泛運用之智慧聯網安全措施與實作:
(一) 資訊系統安全治理與風險管理
包含了與資訊系統風險分析、相關政策、認證、指標與稽核以及人力資源相關之安全措施。
(二) 生態系管理
包含生態系繪製以及各生態系的關聯。
(三) IT安全建築
包含系統配置、資產管理、系統隔離、流量過濾與密碼學等資安措施。
(四) IT安全管理
帳戶管理與資訊系統管理之相關安全措施。
(五) 身分與存取管理
有關身分確認、授權以及存取權限之安全措施。
(六) IT安全維護
有關IT安全維護程序以及遠端存取之安全措施。
(七) 偵測
包含探測、紀錄日誌以及其間之關聯與分析之安全措施。
(八) 電腦安全事件管理
資訊系統安全事件分析與回應、報告之資安措施。
本文為「經濟部產業技術司科技專案成果」
澳洲工業、科學及資源部(Department of Industry, Science and Resources)於2025年12月2日發布「國家AI計畫」(National AI Plan),擘劃了澳洲至2030年的AI發展藍圖,將「掌握機遇」、「普及效益」與「確保人民安全」列為三大發展方向。該計畫將透過基礎建設投資、人才培育、產業支持,以及強化監管能力等途徑,打造一個更具競爭力、包容性與安全性的 AI 生態系統。 國家AI計畫的另一個重點在於,澳洲政府打算透過現有的法律監管架構治理AI,而不另立AI專法。此舉是回應澳洲生產力委員會(Productivity Commission)於8月提出之建言:政府在推動創新與訂定規範時必須取得平衡,應暫緩推動「高風險 AI 的強制護欄(mandatory guardrails)」,僅有在現行制度無法處理AI衍生之危害時,才有必要考慮制定 AI 專法。 據此,國家AI計畫指出,面對AI可能造成的危害,現有制度已有辦法進行處理。例如面對使用AI產品或服務的爭議,可依循《消費者保護法》(Australian Consumer Law)取得權利保障;AI產品或服務的風險危害,亦可透過《線上安全法》(Online Safety Act 2021)授權,制定可強制執行的產業守則(enforceable industry codes)來應對。澳洲政府未來也將推動《隱私法》(Privacy Act 1988)修法,意欲在「保護個人資訊」與「允許資訊被使用及分享」之間取得適當平衡。 同時,由於採用分散式立法的關係,澳洲特別成立「AI 安全研究院」(Australian AI Safety Institute, AISI),以強化政府因應 AI 相關風險與危害的能力。AISI將協助政府部門內部進行監測、分析並共享資訊,使部門間能採取即時且一致的治理政策。 澳洲政府曾在2024年9月研議針對高風險AI進行專門的監管,但因擔心過度立法恐扼殺AI發展轉而採用「科技中立」的監管方式,以既有法律架構為基礎推動AI治理。此與歐盟的AI治理邏輯大相逕庭,未來是否會出現現行制度無法處理之AI危害,抑或採用現行法制並進行微調的方式即可因應,值得持續觀察。
新加坡個人資料保護委員會2017年7月發布資料共享指引新加坡個人資料保護委員會(Personal Data Protection Commission, PDPC)於2017年7月27日發布資料共享指引(GUIDE TO DATA SHARING),該指引協助組織遵守新加坡2012年個人資料保護法(Personal Data Protection Act 2012, PDPA),並提供組織內部和組織之間的個資共享指引,例如得否共享個資,與如何應用,以確保符合PDPA共享個資之適當方法;並得將特定資料共享而豁免PDPA規範。該指引共分為三部分,並有附件A、B。 指引的第一部分為引言,關於資料共享區分為三種類型探討: 在同一組織內或關係組織間共享 與資料中介機構共享(依契約約定資料留存與保護義務) 與一個或多個組織共享(在不同私部門間、公私部門間) 共享包含向一或多組織為利用、揭露或後續蒐集個資;而在組織內共享個人已同意利用之個資,組織還應制定內部政策,防止濫用,並避免未經授權的處理、利用與揭露;還應考慮共享的預期目的,以及共享可能產生的潛在利益與風險。若組織在未經同意的情況下共享個資,必須確保根據PDPA的相關例外或豁免之規定。 指引的第二部分則在決定共享資料前應考慮的因素: 共享目的為何?是否適當? 共享的個資類型為何?是否與預期目的相關? 在該預期目的下,匿名資料是否足以代替個資? 共享是否需要得同意?是否有例外? 即使無須同意,是否需通知共享目的? 共享是否涉及個資跨境傳輸? 上述因素還能更細緻對應到附件A所列應思考問題,附件B則有相關作業流程範例。 指引的第三部分,具體說明如何共享個資,與資料共享應注意規範,並提供具體案例參考,值得作為組織遵守新加坡個人資料保護規範與資料共享之參考依據。
以「公私夥伴關係(PPP)」發展科技之作法近來常聽聞各國以公私夥伴關係(Public-Private Partnership, PPP)之模式發展產業科技,PPP故名思義,係指結合公私部門之力量,以共同達成公共政策目標之合作模式。公部門可借重私部門的專業、經驗與品質,使其服務更有效率,私部門也可得到政府與政策之支持。 如今科技進步程度往往可代表ㄧ國之競爭力,惟科技研發需投入大量成本,因此各國多有針對科研補助之相關政策,從早年的單方補助,到如今強調公私合作進行科研的PPP模式。各國亦提出各種產官學合作研發的模式或組合之立法或相關政策。例如成立獨立非營利法人讓各項研發活動進行更方便、研究設施設備共享更容易的日本「技術研究組合」、芬蘭之SHOKs。荷蘭近來亦大力推行PPP研發之策略。德國之高科技領先戰略計畫( Spitzencluster-Wettbewerb)亦以區域聚落(該區域聚落即包含產業界、大學及其他相關學術機構)為單位,藉競爭給予補助的方式,促成該地區產官之緊密合作。
英國與美國為人工智慧安全共同開發簽署合作備忘錄英國技術大臣(U.K. Secretary of State for Science)蜜雪兒·多尼蘭(Michelle Donelan)和美國商務部長(U.S. Secretary of Commerce)吉娜·雷蒙多(Gina Raimondo)於2024年4月1日在華盛頓特區簽署一份合作備忘錄(MOU),雙方將共同開發先進人工智慧(frontier AI)模型及測試,成為首批就測試和評估人工智慧模型風險等進行正式合作之國家。 此備忘錄之簽署,是為履行2023年11月在英國的布萊切利公園(Bletchley Park)所舉行的首屆人工智慧安全峰會(AI Safety Summit)上之承諾,諸如先進AI的急速進步及濫用風險、開發者應負責任地測試和評估應採取之適當措施、重視國際合作和資訊共享之必要性等等,以此為基礎羅列出兩國政府將如何在人工智慧安全方面匯集技術知識、資訊和人才,並開展以下幾項聯合活動: 1.制定模型評估的共用框架(model evaluations),包括基礎方法(underpinning methodologies)、基礎設施(infrastructures)和流程(processes)。 2.對可公開近用模型執行至少一次聯合測試演習(joint testing exercise)。 3.在人工智慧安全技術研究方面進行合作,以推進先進人工智慧模型之國際科學知識,並促進人工智慧安全和技術政策的一致性。 4.讓英、美兩國安全研究所(AI Safety Institute)間的人員互相交流利用其團體知識。 5.在其活動範圍內,依據國家法律、法規和契約規定來相互共享資訊。 換言之,兩國的機構將共同制定人工智慧安全測試之國際標準,以及適用於先進人工智慧模型設計、開發、部署、使用之其他標準。確立一套通用人工智慧安全測試方法,並向其他合作夥伴分享該能力,以確保能夠有效應對這些風險。就如英國技術大臣蜜雪兒·多尼蘭強調的,確保人工智慧的安全發展是全球性問題,只有通過共同努力,我們才能面對技術所帶來的風險,並利用這項技術幫助人類過上更好的生活。