日本內閣府發布「綜合創新戰略2024」

為應對日益嚴峻的國際情勢,並避免研究能力下降、生態系進展緩慢對經濟、社會發展造成衝擊,日本內閣府於2024年6月4日發布「綜合創新戰略2024」(統合イノベーション戦略2024),提出三大強化措施與三大發展主軸,綜整未來科技與創新的重要發展方向。具體內容整理如下:

1.強化措施

(1)關鍵技術綜合戰略
開發核心技術,在各戰略領域如人工智慧、機器人、物聯網等,透過產官學界合作推進技術融合與研究開發、推動人才培育,並促進新創發展。

(2)加強國際合作
從全球視角積極運用資源進行策略性協作,並以促進開發利用、確保安全性為主要目標,主導、參與重要技術相關之國際規則制定。

(3)強化人工智慧領域競爭力並確保安全性
包含創新研發人工智慧之應用,及利用人工智慧加速創新速度等。

2.發展主軸

(1)推進先進科技戰略
針對各重要領域如人工智慧、核融合能源、量子科技、生物科學、材料科學、半導體與通訊技術(6G)推展研究;確保大學與研究機構之研究安全性與倫理,並為設立智庫強化研究機能預做準備;同時綜合運用各領域的知識創造價值,為整體社會提供自動化、省力化、防災減災之科學技術。

(2)研究能力與人才培育
透過補助優秀大學與研究費用、扶植區域核心及具有特色的研究型大學、強化國家研究設施並促進設施間之合作性發展研究基礎;以及推動開放政府資助研究之資料與學術論文。

(3)營造創新生態系
透過SBIR計畫(Small Business Innovation Research,小型企業創新研發計畫)補助,並促進新創企業之政府採購;藉由產官學合作推展創新;以及擴大政府與民間研發投資規模,促進人才、技術、資金在大企業與新創公司間流動等。

日本政府認為,核融合能源與量子科技等關鍵技術將為新產業發展的開端,本戰略亦將成為未來日本新一期科學技術與創新基本計畫(科学技術・イノベーション基本計画)開展之基礎。我國於半導體、量子科技等關鍵科技發展皆緊跟國際腳步,因此相關戰略措施後續之推動與落實,亦值得我國持續關注、參考。

相關連結
你可能會想參加
※ 日本內閣府發布「綜合創新戰略2024」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9242&no=57&tp=1 (最後瀏覽日:2026/04/24)
引註此篇文章
你可能還會想看
性隱私內容外流風波-從美國立法例論我國違反本人意願散布性隱私內容之入罪化

美國聯邦交易委員會提出巨量資料報告,關注商業應用之潛在歧視性效果

  美國聯邦交易委員會(Federal Trade Commission, FTC)於2016年1月6日公布「巨量資料之商業應用」報告(Big Data: A Tool for Inclusion or Exclusion? Understanding the Issues),報告中歸納提出可供企業進一步思考之數項議題,期能藉此有助於企業確保巨量資料分析應用之正當合法性,並避免產生排除性或歧視性之對待,但同時亦能透過巨量資料之分析應用為消費者帶來最大的利益。FTC主委Edith Ramirez表示,巨量資料之重要性於商業之各領域均愈發凸顯,其對於消費者之潛在利益自是不言可喻,然企業仍應確保巨量資料之利用不會產生傷害消費者之結果。   「巨量資料之商業應用」報告經徵集公共意見與彙整相關研究後,聚焦於巨量資料生命週期的後端,亦即巨量資料被蒐集與分析之後的利用。報告中強調數種能幫助弱勢群體的巨量資料創新利用方式,例如依病患之生理特性量身訂作並提供醫療照護,或是新的消費者信用評等方式。報告同時也指出可能因為偏見或資料錯誤帶來的風險,像是信用卡發卡銀行降低某人信用額度的原因並非基於該持卡人之消費與還款記錄,而是與該持卡人被歸為「同一類型」之消費者所共同擁有之記錄與特徵。其次,報告對巨量資料於商業領域之利用可能涉及之法規進行了初步盤點,包括公平信用報告法(Fair Credit Reporting Act, FCRA)、與機會平等相關之聯邦立法—像是基因資訊平等法(Genetic Information Nondiscrimination Act, GINA)、以及聯邦交易委員會法,報告也列出7項預擬提問,協助企業因應巨量資料商業利用之法令遵循問題。

美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」

  美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。   為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。

Codex研提進口食品含有未經核准之GMO含量的技術指導原則

  由聯合國農糧組織及世界衛生組織共同成立的The Codex Alimentarius Commission (Codex),刻正研提一份與GMO有關的重要技術指導原則,以協助各國評估並管控進口食品是否含有未經核准的GMO或由未經核准的GMO所製程的風險,藉此降低食品貿易的障礙。   關於未經核准的GMO,目前歐盟採取的零容忍度政策(zero-tolerance policy),亦即,進口之食品或飼料中,絕對不能含有未經核准的GMO或由未經核准的GMO所製程,至於一般所知的歐盟0.9%的GMO標示義務,是適用在經依法核准上市的GMO,若因技術上不可避免的原因而使非基改產品含有此GMO之可容忍界線。   根據Codex調查,許多GMO的上市審查在歐盟受到延宕,但這些GMO在歐盟以外其實很多都已經被其他國家核准,或歐盟的技術審查單位—食品安全管理局(European Food Safety Authority, EFSA)也已提出正面的安全評估意見,但歐盟執委會卻遲遲未完成行政審查,造成在歐盟進口的食品或飼料中若含有這些GMO,即被認定為未經核准而影響產品之進口。   鑑於歐盟的GMO管理與出口國的GMO管理有重大的制度面差異,Codex認為此一制度面的衝突若不尋求解決,未來將越演越烈,影響的作物範圍也會越來越廣,因而Codex才會思考制定相關的技術指導原則,解決某GMO可能在一個或多個國家已經被核准上市,但在進口國還未經核准上市,而進口非基改食品或飼料中卻含有這些GMO的問題,目前Codex預計在2008年7月提出相關的技術指導原則建議。

TOP