日本內閣閣議決定2023年度朝向數位社會實現之重點計畫,強化活用數位技術之法規整備

2023年6月9日,日本內閣閣議決定2023年度「朝向數位社會實現之重點計畫」(デジタル社会の実現に向けた重点計画)。該計畫是針對數位社會之實現,明確記載日本政府應迅速且重點性實施的政策及各行政機關於整體社會結構改革(こうぞうかいかく)、個別施行政策之努力,並做為日本向世界提出建言時的羅盤。

其中,值得關注的是日本對於為活用數位技術所做之法規整備。根據2022年12月日本數位廳轄下的數位臨時行政調查會(デジタル臨時行政調査会)的調查,確認與實地檢查、定期檢查、文件閱覽等相關之法律條文內含過時概念,以致於會對數位轉型之發展造成阻礙的條文(下稱過時法律)約有一萬條。對此,數位臨時行政調查會表示,數位改革與法律改革之間的關係為一體兩面,為了最大化發揮數位化的效果,法律改革的相關檢討亦應一併執行。各法律之相關行政機關應依照「基於數位原則對過時法律所作之修正工程表(デジタル原則を踏まえたアナログ規制の見直しに係る工程表)」對各過時法律做出相關檢討,並以2024年6月修正各過時法律為目標。

舉例來說,為實現民事判決的全面數位化,2022年5月18日,日本參議院通過了民事訴訟法等法律的部分修正案,其中最值得關注的部分為當事人可以透過網路向法院提起訴訟、提出準備資料,以及透過網路受領法院送達之相關訴訟文書等。該修正案亦包含訴訟中程序之修正,以言詞辯論程序為例,當事人可透過線上會議之方式進行言詞辯論程序,惟施行期間預計於公告後2年內開始實施。

台灣於2015年7月就智慧財產行政訴訟事件正式啟用線上起訴系統,同年9月開放稅務行政訴訟事件使用,並於2016年開放民事訴訟事件使用。該系統與日本體系不同之處在於,日本目前僅就民事訴訟事件開放線上起訴系統之使用。不過,日本2022年針對刑事訴訟法數位化之部分做出相關報告書,可預期日本將來也會將線上起訴及審理系統導入刑事訴訟法之領域。未來可以持續觀察日本就線上起訴及審理系統之訂定及政策施行方向,作為我國之參照。

本文同步刊登於TIPS網站(https://www.tips.org.tw

相關連結
你可能會想參加
※ 日本內閣閣議決定2023年度朝向數位社會實現之重點計畫,強化活用數位技術之法規整備, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9032&no=67&tp=1 (最後瀏覽日:2025/11/30)
引註此篇文章
你可能還會想看
歐盟執委會發布指引以因應《人工智慧法》「禁止的人工智慧行為」條文實施

歐盟執委會於2025年2月4日發布「關於禁止的人工智慧行為指引」(Commission Guidelines on Prohibited Artificial Intelligence Practices)(下稱「指引」)」,以因應歐盟《人工智慧法》(AI Act,下稱AIA)第5條關於「禁止的人工智慧行為」之規定。該規定自2月2日起正式實施,惟其內容僅臚列禁止行為而未深入闡釋其內涵,執委會特別制定本指引以避免產生歧義及混淆。 第5條明文禁止使用人工智慧系統進行有害行為,包括:利用潛意識技術或利用特定個人或群體之弱點進行有害操縱或欺騙行為、實施社會評分機制、進行個人犯罪風險預測、執行無特定目標之臉部影像蒐集、進行情緒識別分析、實施生物特徵分類、以及為執法目的而部署即時遠端生物特徵識別系統等。是以,指引就各禁止事項分別闡述其立法理由、禁止行為之具體內涵、構成要件、以及得以豁免適用之特定情形,並示例說明,具體詮釋條文規定。 此外,根據AIA規定,前述禁令僅適用於已在歐盟境內「投放市場」、「投入使用」或「使用」之人工智慧系統,惟對於「使用」一詞,並未予以明確定義。指引中特別闡明「使用」之定義,將其廣義解釋為涵蓋「系統投放市場或投入使用後,在其生命週期任何時刻的使用或部署。」 指引中亦指出,高風險AI系統的特定使用情境亦可能符合第5條的禁止要件,因而構成禁止行為,反之亦然。因此,AIA第5條宜與第6條關於高風險AI系統的規定交互參照應用。 AIA自通過後,如何進行條文內容解釋以及法律遵循義務成為各界持續討論之議題,本指引可提升AIA規範之明確性,有助於該法之落實。

英國金融行為監督總署公布《加密資產指引》諮詢文件

  英國金融行為監督總署(Financial Conduct Authority, FCA)與英國財政部、英格蘭銀行於2018年3月共同組成「加密資產專案小組」(Cryptoasset Taskforce),為英國政府「金融科技產業戰略」(Fintech Sector Strategy)之一環。2019年1月23日,FCA公布《加密資產指引》(Guidance on Cryptoassets)諮詢文件,除在配合加密資產專案小組之調查、研究外,亦在於落實FCA作為金融監理主管機關,盤點及釐清法規適用之職責,以妥適因應金融科技發展。公眾意見徵集期間至2019年5月4日,FCA並預計在同年夏季提出最終版本的報告。   依據《加密資產指引》,FCA臚列了四項監理代幣(token)可能的法源依據,包含: (1)受監管活動指令(Regulated Activities Order)下的「特定投資項目」。 (2)歐盟金融工具市場指令II(MiFID II)下的「金融工具」。 (3)電子貨幣條例(E-Money Regulations)下之「電子貨幣」。 (4)支付服務條例(Payment Services Regulations)。   由於加密資產市場與分散式記帳技術發展迅速,參與者迫切需求更清晰之監理規範,包含交易匯兌、主管機關等,避免因誤觸受管制之活動(regulated activities)而遭受裁罰。其次,FCA亦希望能強化消費者保護,依照加密資產商品類型,讓消費者知道可以尋求何種法律上之保障。

美國眾議院通過新法案-《CASE法》

  美國眾議院在2019年9月10日,通過了一項法案,該法案將建立一個類似法庭的機構,處理小額著作權爭議,為著作權侵權訴訟提供一種低成本的替代方法,這個法案稱之為《CASE法》(the CASE Act),又名Copyright Alternative in Small-Claims Enforcement Act。   《CASE法》將在美國著作權局內設立一個準司法機構,稱為著作權賠償委員會,此委員會並不在政府的司法部門下運作,每件侵權作品最高可獲得之賠償金額為三萬美元。在以往的著作權訴訟中,平均訴訟成本為27.8萬美元,這意味著許多獨立創作者不會真正進行訴訟,因為他們的作品還沒有那麼值錢,此項法案通過將有助於獨立創作者保護自己的權利。   有關《CASE法》之主要內容,其主要包含以下幾項: 對於當事人進行定義,並對賠償委員會組成員之成員進行規範,例如委員會的審查委員應是具備七年以上執業經驗之律師或者在著作權侵權訴訟方面有豐富的經驗。 對委員會職責與權限加以規定,例如,促進雙方調解成立、不得擔任與委員會職責相牴觸之任何職務。 對程序的進行有所規範,例如,得在訴訟中自願參加著作權賠償委員會之程序。程序的開始,為雙方當事人自願參加,而非課予當事人到庭之義務,強迫進入訴訟程序。 對調解程序相關行為進行規範,例如當事人之代表人可以是自己、律師,或是無償提供幫助之法學院學生。 規範調解做成之效果,例如,賠償委員會不能排除訴訟、不能反訴、不能下最終判斷,以及賠償委員會的任何決定,不得作為法律判決先例被引用等。   這項法案得到眾多藝術家和音樂發行人的支持,但受到一些消費權益團體反對,包括電子疆界基金會和公共知識組織(the Electronic Frontier Foundation and Public Knowledge),他們認為這項法案最大的缺點就是,缺乏結構性的保障以對抗濫用。這項法案對於被指控侵權的人幾乎沒有保護,更可能使不肖之徒有機可乘,隨意濫行訴訟以尋求更高額的和解金;加諸委員會並非司法部門,由委員會進行裁決,有憲法上疑慮,這都是需要詳加斟酌考慮。

OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

TOP