韓國科學及資通訊部發布「韓國科學技術主權藍圖」

  韓國科學及資通訊部(Ministry of Science and ICT, MSIT)於2024年8月26日發布第一次國家戰略技術發展計畫「韓國科學技術主權藍圖」(Blueprint for National S&T Sovereignty)(下稱科技主權藍圖),以促進國家戰略技術(national strategic technology)之發展。

  韓國於2022年10月發表〈國家戰略技術培育計畫〉(National Strategic Technology Nurture Plan),選定12個國家戰略技術。本次發布之科技主權藍圖,旨在為國家戰略技術提供中長期之支援政策,主要政策與預期效果如下:

1. 支持國家戰略技術商業化:MSIT將在5年內投資30兆韓元(約7200億台幣)於國家戰略技術之研發,並推出「顛覆性差距特殊上市程序」(super-gap special listing procedure),為具顛覆性之新技術提供融資、租稅優惠等支援,加速其商業化。

2. 增強韌性:韓國將加強與戰略夥伴之合作,觀察國際趨勢,定期更新國家戰略技術清單,以利其對國家戰略技術保持良好的應變能力。另一方面,韓國希望保持半導體記憶體(semiconductor memory)、蓄電池與顯示器技術之領先,並積極發展人工智慧半導體、尖端生物技術與量子技術等三大顛覆性領域,以期在國際上建立韓國主導之戰略技術標準化體系。

3. 建立任務導向的研發體系:MSIT將建立任務和目標績效管理體系,並搭建創新平台,鼓勵戰略技術之研發,目標為創造15家以上的戰略技術獨角獸公司(unicorn start-up),以引領韓國未來戰略技術之發展。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 韓國科學及資通訊部發布「韓國科學技術主權藍圖」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9262&no=67&tp=1 (最後瀏覽日:2025/12/06)
引註此篇文章
你可能還會想看
資通安全法律案例宣導彙編 第2輯

日本內閣官房提出法案規範醫療個資去識別化業者,以促進研發利用

  日本內閣官房所屬之健康‧醫療戰略室於2017年3月, 向國會提出《有助醫療領域研究開發之匿名加工醫療資訊法律案》(医療分野の研究開発に資するための匿名加工医療資訊に関する法律案)。「健康‧醫療戰略室」係於2013年2月成立,並於同年8月根據《健康‧醫療推進法》設置「健康‧醫療戰略推進本部」。該部於2017年3月10日提出《有助醫療領域研究開發之匿名加工醫療資訊法律案》,針對醫療資訊匿名加工業者進行規制,使他人可安心利用經過去識別化處理之資訊,以便促進健康、醫療方面之研究及產業發展,形成健康長壽社會。上開法案主要可分為兩個部份︰ 國家責任與義務︰政府應提出必要政策與制定基本方針。 匿名加工醫療資訊業者之認定︰該部份又可分為匿名加工醫療資訊業者(以下簡稱業者)之認定與醫療資訊處理。   針對上述第2點之認定,為確保資訊安全,政府應設置認定機構,以便確認業者符合一定基準,並具備足夠之匿名加工技術,可為醫療個資去識別化。此外,在醫療資訊處理方面,該法案則規定醫療機關可在事先告知本人,且本人未拒絕提供時,將醫療資訊提供給業者。

歐盟執委會發布指引以因應《人工智慧法》「禁止的人工智慧行為」條文實施

歐盟執委會於2025年2月4日發布「關於禁止的人工智慧行為指引」(Commission Guidelines on Prohibited Artificial Intelligence Practices)(下稱「指引」)」,以因應歐盟《人工智慧法》(AI Act,下稱AIA)第5條關於「禁止的人工智慧行為」之規定。該規定自2月2日起正式實施,惟其內容僅臚列禁止行為而未深入闡釋其內涵,執委會特別制定本指引以避免產生歧義及混淆。 第5條明文禁止使用人工智慧系統進行有害行為,包括:利用潛意識技術或利用特定個人或群體之弱點進行有害操縱或欺騙行為、實施社會評分機制、進行個人犯罪風險預測、執行無特定目標之臉部影像蒐集、進行情緒識別分析、實施生物特徵分類、以及為執法目的而部署即時遠端生物特徵識別系統等。是以,指引就各禁止事項分別闡述其立法理由、禁止行為之具體內涵、構成要件、以及得以豁免適用之特定情形,並示例說明,具體詮釋條文規定。 此外,根據AIA規定,前述禁令僅適用於已在歐盟境內「投放市場」、「投入使用」或「使用」之人工智慧系統,惟對於「使用」一詞,並未予以明確定義。指引中特別闡明「使用」之定義,將其廣義解釋為涵蓋「系統投放市場或投入使用後,在其生命週期任何時刻的使用或部署。」 指引中亦指出,高風險AI系統的特定使用情境亦可能符合第5條的禁止要件,因而構成禁止行為,反之亦然。因此,AIA第5條宜與第6條關於高風險AI系統的規定交互參照應用。 AIA自通過後,如何進行條文內容解釋以及法律遵循義務成為各界持續討論之議題,本指引可提升AIA規範之明確性,有助於該法之落實。

英國資訊委員辦公室推出資料分析工具箱協助組織檢視資料保護情形

  英國資訊委員辦公室(Information Commissioner's Office, ICO)於今(2021)年2月17日推出資料分析工具箱(data analytics toolkit)供所有考慮對個人資料進行資料分析的組織使用,旨在幫助組織駕馭人工智慧(Artificial Intelligence, AI)系統對個人權利所可能帶來的挑戰。   ICO表示,越來越多的組織使用AI來完成特定任務,例如使用軟體自動發現資料集(data sets)的模式,並藉此進行預測(predictions)、分類(classifications)或風險評分(risk scores),組織在使用個人資料進行資料分析時,納入資料保護的概念是至關重要的,除符合法律要求外,也能增強民眾對技術的信任與信心。   使用ICO的資料分析工具箱時,首先會詢問組織所適用的法律,並引導至相對應的頁面,並透過合法性(lawfulness)、問責與治理(accountability and governance)、資料保護原則(data protection principles)以及資料主體權利(data subject rights)等一系列的問題瞭解組織的資料保護情形,在回答所有問題之後,工具箱將產生一份報告,提供組織關於資料保護的建議,提高組織資料保護的法令遵循程度。   ICO強調,組織應該要在個人資料處理的過程中考量報告中所提及的建議,並向組織的資料保護長(Data Protection Officer, DPO)徵詢其意見,在組織委託、設計與實施資料分析時落實個人權利與自由的保障。

TOP