新加坡國家研究基金會推出AI.SG計畫,促進人工智慧技術發展

  新加坡國家研究基金會(National Research Foundation,以下簡稱NRF)於2017年5月3日宣布AI.SG倡議,並將啟動國家級AI計畫。NRF將於五年內投資新加坡幣1.5億元,整合NRF,智慧國家與數位政府辦公室(Smart Nation and Digital Government),經濟發展委會(Economic Development Board),資通訊媒體發展局(Infocomm Media Development Authority),新加坡創新機構(SGInnovate)及整合健康資訊系統(Integrated Health Information Systems)等數個政府部門,以及位於新加坡的研究機構、AI新創公司與發展AI產品的企業等共同投入。計畫三大目標如下:

  1. 利用人工智慧來解決影響社會和產業的重大挑戰
      這些應用包括利用人工智慧解決交通尖峰時段壅塞問題,或應付人口老齡化帶來的醫療保健挑戰。IHiS執行長兼衛生部資訊長Mr.Bruce Liang表示:「醫療照護是需要高度知識及人性化的行業。多年來從新加坡在醫療照護數位化的發展中,可預見AI未來對於提升新加坡人民健康有很大幫助。例如在疾病預防、診斷、治療計畫、藥物治療、精準醫療、藥品開發等方面皆可發揮作用。醫護人員再加上AI工具,可以更完善解決未來對於醫療照護需求的增加。」
  2. 投入並深化技術能力,以掌握下一波科技創新
      其中包括可展現更多人類學習能力的下一代「可解釋的人工智慧」 (Explainable Artificial Intelligence,XAI),以及相關技術,例如電腦系統架構(軟體、韌體、硬體整合)和認知科學(Cognitive Science)。NRF獎助金和研究計畫將會支持相關科學活動。當地人才也將透過參與AI深度功能的開發進行培訓。
  3. 擴大產業對於AI和機器學習的使用
      AI.SG將與公司合作,利用AI來提高生產力,創造新產品,並輔導相關解決方案從實驗室進入市場。目標將支持100個AI研發項目和概念驗證,以利用戶能快速解決實際問題。並預計針對金融,醫療照護和城市管理解決方案領域具有特殊的潛力者先著手進行。

  AI.SG計畫此項推動工作,未來不僅將可激發新加坡的研究人員和用戶利用AI解決社會重大問題,也將影響全世界渴望利用人工智慧技術帶來更便利的生活,值得我國相關機關推動政策之參考依據。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 新加坡國家研究基金會推出AI.SG計畫,促進人工智慧技術發展, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7819&no=55&tp=1 (最後瀏覽日:2026/03/15)
引註此篇文章
你可能還會想看
軟體安全性缺失成為買賣標的

  瑞士的網路安全公司WSLabi於2007年7月9日宣佈一項訊息,未來將在線上公開交易或交換一些軟體的安全性漏洞和弱點予軟體相關研究人員、安全代理商和軟體公司,價格從數百美元至數萬美元不等。而此意謂拍賣軟體瑕疵的新興市場即將被打開。   WSLabi公開拍賣軟體弱點與漏洞的作法引起了很大的爭論。以往軟體安全業者於發現軟體的弱點後,會與軟體開發者合作修補安全性弱點和漏洞,待修補完成後再公開宣佈修補軟體安全性弱點之相關訊息。但該公司的新作法將導致軟體公司未來可能因為無法及時修補弱點而商譽受損。因此該項計畫雖尚未實行,卻引起了不同看法的爭辯:支持者表示,此一計畫將有助於改善軟體弱點及安全漏洞的問題,並可鼓勵對於軟體的弱點的深入研究;然反對者卻認為,如果軟體的弱點和安全漏洞因而落入有心人的手中,利用於犯罪或幫助他人犯罪,將會對資訊安全形成極大威脅。再者,把其他公司開發的軟體弱點在市場上交易,可能也會引發道德與合法性的問題。   WSLabi於瞭解這項做法可能引起侵害著作權(重製、散布、販賣軟體等行為)、營業秘密與犯罪防治等法律上的爭議及國家安全的問題後表示,他們將會審慎地過濾選擇買主,不會將研究之結果出售予犯罪者或敵國政府。雖然如此,他們的說法仍引起質疑,畢竟判斷買主是否為善意或確定身份並非易事。

法國CNIL對企業於職場監視行為劃出警告紅線

法國國家資訊自由委員會(Commission Nationale de l'Informatique et des Libertés, CNIL)於2025年9月18日作成裁罰決定,認定巴黎百貨公司SAMARITAINE SAS(La Samaritaine)(莎瑪麗丹百貨公司,下稱該公司)於職場內設置「偽裝成煙霧偵測器」的隱藏攝影機,該設備具備錄音功能且未適當評估風險與內部控制紀錄,並涉及個資事件通報義務未即時履行等多項違反《一般資料保護規則》(General Data Protection Regulation, GDPR)規定,最終遭裁處10萬歐元(約新台幣355萬元)的行政罰鍰。 本次事件係因該公司聲稱庫房商品失竊率增加,遂於2023年8月在兩處庫房安裝5台外觀形似煙霧偵測器但可錄音的攝影機,但員工並未事前知悉。然而,攝影機於裝設後數週即被員工發現,並在2023年9月被拆除而停止運作。CNIL之所以介入,係因2023年11月經媒體報導及後續申訴事件引發關注,進而啟動稽查程序。以下為CNIL認定本案的主要違規事項: 1.違反公平、透明與可歸責性(GDPR Art. 5(1)(a)、5(2)):隱藏式攝影機設計使員工難以察覺且未予以告知;該公司未完成事前分析或影響評估、未妥善文件化紀錄,因此難認有以公平且透明方式處理個資。 2.違反資料最小化(GDPR Art.5(1)(c)):攝影機具備「收音」功能,導致員工私領域對話等資料被蒐集,與所稱之防竊等特定目的未有相符,屬過度蒐集行為。 3.未建立個資侵害通報與紀錄(GDPR Art. 33(1)、33(5)):員工拆除設備時留存載有錄影錄音內容的SD卡,公司在知悉後未於法定時限內通報並建檔紀錄;CNIL指出此類「失去對載體控制」情形並無任何模糊空間,且因其中內含員工影音資料,對自由權具有風險,依法應通報。 4.個人資料保護長(Data Protection Officer, DPO)未及時參與(GDPR Art. 38(1)):DPO直至該攝影機拆除後才被告知,未能於事前提供風險控管與審酌是否符合法規範建議,而違反應「適時、適當參與」之要求。 本案可視為CNIL對職場監視劃出的紅線警告,雇主即使基於特定目的而採用不易察覺的監視措施,仍須在保護財產和人身安全的目標,與保護員工隱私間取得合理平衡,例如:蒐集期間具有「暫時性」;蒐集範圍最小化,無不必要收音等較小侵害手段;並應讓組織的DPO事前參與把關,完成比例性分析與風險評估,否則可能構成對員工基本權利與自由的重大干預。同時,內部也應建立事故應變流程,避免因誤判或延誤而使單一事件擴大成多重違規與裁罰風險。

美國參議員提案修改股票選擇權(stock option)租稅處理優惠

  美國參議員Carl Levin最近提出一項名為「終止公司股票選擇權租稅優惠法」(Ending Corporate Tax Favors for Stock Options Act, S. 2116,以下簡稱:股票選擇權租稅優惠終止法)的草案,主要目的是希望改變公司對於股票選擇權費用化的租稅處理(tax treatment of corporate stock option deductions)。   就租稅意義而言,公司發給員工(包括高階經理人及一般員工)的股票選擇權為薪資的一種,而根據美國內地稅法規定,目前公司在申報股票選擇權的薪資支出(compensation expense)減項時,可以申報的費用比公司帳簿上所登載的更高。由於此一稅法上獨厚股票選擇權的處理,使得近年來許多美國企業支付給主要高階經理人的薪資,有一大部分是股票選擇權,此現象在科技產業亦甚為顯著,其結果造成公司高階經理人與一般員工的薪資差距越益擴大。   「股票選擇權租稅優惠終止法」要求公司於薪資支出項下申報的股票選擇權費用,必須與公司帳簿所記載的數目一致,同時,股票選擇權也應與其他類別的公司薪資費用一樣,同樣受到1百萬美元的費用上限之申報限制,至於股票選擇權申報費用的時點,則不須要等到選擇權行使(exercise)的年度。

英國與美國為人工智慧安全共同開發簽署合作備忘錄

英國技術大臣(U.K. Secretary of State for Science)蜜雪兒·多尼蘭(Michelle Donelan)和美國商務部長(U.S. Secretary of Commerce)吉娜·雷蒙多(Gina Raimondo)於2024年4月1日在華盛頓特區簽署一份合作備忘錄(MOU),雙方將共同開發先進人工智慧(frontier AI)模型及測試,成為首批就測試和評估人工智慧模型風險等進行正式合作之國家。 此備忘錄之簽署,是為履行2023年11月在英國的布萊切利公園(Bletchley Park)所舉行的首屆人工智慧安全峰會(AI Safety Summit)上之承諾,諸如先進AI的急速進步及濫用風險、開發者應負責任地測試和評估應採取之適當措施、重視國際合作和資訊共享之必要性等等,以此為基礎羅列出兩國政府將如何在人工智慧安全方面匯集技術知識、資訊和人才,並開展以下幾項聯合活動: 1.制定模型評估的共用框架(model evaluations),包括基礎方法(underpinning methodologies)、基礎設施(infrastructures)和流程(processes)。 2.對可公開近用模型執行至少一次聯合測試演習(joint testing exercise)。 3.在人工智慧安全技術研究方面進行合作,以推進先進人工智慧模型之國際科學知識,並促進人工智慧安全和技術政策的一致性。 4.讓英、美兩國安全研究所(AI Safety Institute)間的人員互相交流利用其團體知識。 5.在其活動範圍內,依據國家法律、法規和契約規定來相互共享資訊。 換言之,兩國的機構將共同制定人工智慧安全測試之國際標準,以及適用於先進人工智慧模型設計、開發、部署、使用之其他標準。確立一套通用人工智慧安全測試方法,並向其他合作夥伴分享該能力,以確保能夠有效應對這些風險。就如英國技術大臣蜜雪兒·多尼蘭強調的,確保人工智慧的安全發展是全球性問題,只有通過共同努力,我們才能面對技術所帶來的風險,並利用這項技術幫助人類過上更好的生活。

TOP