日本內閣府公布生成式AI初步意見彙整文件,提出風險因應、應用及開發兩大關注重點

日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論:

一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。
AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。

二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 日本內閣府公布生成式AI初步意見彙整文件,提出風險因應、應用及開發兩大關注重點, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9069&no=57&tp=1 (最後瀏覽日:2026/04/01)
引註此篇文章
你可能還會想看
歐盟希望類比電視頻譜供給WiMax之用

  歐盟資訊社會和媒體委員會委員Viviane Reding女士,2007年6月1號在希臘一場和寬頻議題相關的演講說中建議,當歐洲電視類比頻段逐漸淘汰時,這些超高頻段頻譜(Ultra High Frequency)應該分派給寬頻網路技術(例如:WiMax)之用。   WiMax是Worldwide Interoperability for Microwave Access的縮寫,一般中譯為「全球互通微波存取」,是一種新興的無線通訊技術,其傳輸速度最高可達70Mbps,傳輸範圍最廣可達30英哩,對個人、家庭與企業的行動化將有很大助益。由於WiMax目前頻譜規劃限制在5.7FHz和3.4GHz區段裡,如果安排在500到800MHz超高頻段上,那WiMAX基地台涵蓋的範圍將提高,並能大大地減低成本。   Viviane Reding女士在該演說中提到,「無線寬頻技術的出現,是克服偏遠或農村地區數位落差現象的重要要素,且是處理數位落差的唯一世代機會。因此,需要一個頻譜的政策框架,釋放這種潛力。」她同時也提到,如果期望以低價擁有更大幅度的無線寬頻速度,則需要釋出具高傳輸性的頻譜。簡言之,決策者應仔細探究從類比轉換成數位化後所產生的數位落差問題,同時思考有無可能在UHF開拓出空間給無線寬頻。

美國法院擬修正《聯邦證據規則》以規範人工智慧生成內容之證據能力

2025年5月2日,聯邦司法會議證據規則諮詢委員會(Judicial Conference’s Advisory Committee on Evidence Rules)以8比1投票結果通過一項提案,擬修正《聯邦證據規則》(Federal Rules of Evidence,FRE),釐清人工智慧(AI)生成內容於訴訟程序中之證據能力,以因應生成式AI技術在法律實務應用上日益普遍的趨勢。 由於現行《聯邦證據規則》僅於第702條中針對人類專家證人所提供的證據設有相關規定,對於AI生成內容的證據能力尚無明確規範,所以為了因應AI技術發展帶來的新興挑戰,《聯邦證據規則》修正草案(下稱「修正草案」)擬新增第707條「機器生成證據」(Machine-Generated Evidence),並擴張第901條「驗證或識別證據」(Authenticating or Identifying Evidence)的適用範圍。 本次增訂第707條,針對AI生成內容作為證據時,明確其可靠性評估標準,以避免出現分析錯誤、不準確、偏見或缺乏可解釋性(Explainability)等問題,進而強化法院審理時的證據審查基礎。本條規定,AI生成內容作為證據必須符合以下條件: 1. 該AI生成內容對於事實之認定具有實質助益; 2. AI系統於產出該內容時,係以充分且適當之事實或資料為輸入依據; 3. 該輸出結果能忠實反映其所依據之原理與方法,並證明此一應用於特定情境中具有可靠性。 本修正草案此次新增「AI生成內容」也必須合乎既有的證據驗證要件。原第901條a項原規定:「為符合證據之驗證或識別要求,提出證據者必須提供足以支持該證據確係其所聲稱之內容的佐證資料。」而修正草案擬於第901條b項新增「AI生成內容」一類,意即明文要求提出AI生成內容作為證據者,須提出足夠證據,以證明該內容具有真實性與可信度,方符合第901條a項驗證要件。 隨著AI於美國法院審理程序中的應用日益廣泛,如何在引入生成式AI的同時,於司法創新與證據可靠性之間取得平衡,將成為未來美國司法實務及法制發展中的重要課題,值得我國審慎觀察並參酌因應,作為制度調整與政策設計的參考。

美國零售商Kroger聲稱零售商Lidl註冊之新商標有混淆Kroger的知名商標之虞

  Kroger成立於1883年,在美國擁有近3000家分店,為美國最大食品雜貨零售店,其註冊商標“Private Selection”相當知名,被廣泛使用在超市、便利商店及其他各種零售商店約20多年。然而在全球擁有超過10000家分店的歐洲零售店巨頭Lidl,亦於2016年9月19日於美國註冊與“Private Selection”近似的商標“Preferred Selection”。   對此,Kroger於Lidl在美國開立新門市不久之後,即於今(2017)年6月30日對Lidl起訴,主張Lidl的“Preferred Selection”與Kroger的“Private Selection”品牌商標太相似,Lidl於德國是以低價折扣作定位之連鎖超市,且產品曾被認定為劣質。Lidl的行為意圖混淆“Preferred Selection”與“Private Selection”,將稀釋Kroger的品牌知名度,不僅侵害商標亦將損及商譽,甚至從中牟取不當利益,導致不公平競爭。故Kroger據以向美國維吉尼亞州地方法院請求禁止Lidl販售使用“Preferred Selection”商標的產品。   Lidl反駁認為其商標註冊已有一段時間,Kroger卻故意選其展店亮相後才大肆攻擊Lidl的新品牌,嚴重干擾Lidl的宣傳效益,更何況兩者商標名稱不同,標誌圖形的設計也不同。今年7月25日,美國維吉尼亞州地方法院法官表示,儘管品牌標誌看起來相似,但兩者並無相同或相似的含意,拒絕授予Kroger聲請之禁令。惟兩造於今年9月達成協議,請求法院駁回訴訟,而Lidl最終於今年9月12日放棄“Preferred Selection”商標權。

加拿大配合數位隱私法之推行,公告安全防護措施違反之規則草案

  加拿大數位隱私法(Digital Privacy Act)於2015年6月18日獲得皇室御准,該法目的係為修訂規範私部門運用個人資料的聯邦個人資料保護及電子文件法(Personal Information Protection and Electronic Documents Act, PIPEDA)。該法有多個章節於公告時便即刻施行,但仍有部分章節需待日後其他行政機關公告配套之法規後始能正式施行,例如該法的重點章節之一:「安全防護措施之違反」(Breaches of Security Safeguards)。   歷經約莫兩年,加拿大創新、科學及經濟發展部(Innovation, Science and Economic Development Canada)於2017年9月2日公告安全防護措施違反之規則草案(Breaches of Security Safeguards Regulations),以及規則衝擊分析聲明(Regulatory Impact Analysis Statement)。草案自公告時起開放30天供相關利益關係人發表意見,未來將和數位隱私法的「安全防護措施之違反」同時生效施行。   草案制定目的在於確保加拿大本國人若遇有資料外洩且具有損害風險時,可收到精確的相關資訊。私部門對本人的通知應包含使本人可理解外洩的衝擊和影響的詳細資訊。草案確保加拿大個人資料保護公署(Office of the Privacy Commissioner of Canada)之專員亦能獲得有關資料外洩的確實且對等資訊,並可監督、確認私部門遵守法規並執行。草案詳載私部門於通報個人資料保護公署時應提交的資訊,以及通知本人時應提供的資訊,且不限制私部門額外提供其他資訊。遇有資料外洩情事而故意不即時通報個人資料保護公署或通知本人者,最高將可處十萬美金罰鍰。

TOP