蘇格蘭於2024年9月24日向刑事司法委員會提交刑事司法革新與家庭暴力審查法案(Criminal Justice Modernisation and Abusive Domestic Behaviour Reviews (Scotland) Bill),期望透過數位程序,提升司法部門的有效性與效率。 在刑事司法數位化部分,主要為將2020年及2022年因疫情而制定的臨時措施正式化,臨時措施包含: 1、在訴訟文件上使用電子簽名。 2、以電子方式寄送訴訟文件。 3、以虛擬方式參加刑事法庭。 4、提高定額罰款限額。 5、羈押的全國管轄權。 此外,在刑事司法數位化部分,亦新增兩項數位創新條款,例如透過數位證據共享功能(Digital Evidence Sharing Capability, 下稱DESC)平臺來進行: 1、在刑事程序中使用證據照片而非實體證據。 2、使證據之複製品效力等同於實體證據。 對於刑事司法革新與家庭暴力審查法案而言,DESC在其中扮演了十分重要的角色。DESC改變了數位證據的儲存、編輯、傳輸以及在法庭上展示的方式。且DESC可透過多種身分驗證,並透過系統自動生成之具唯一性的資料識別碼並記錄上傳者及上傳時間,資料上傳系統後亦會自動留存所有資料編輯、修改、刪除行為等審核措施,確保數位證據的正確性、完整性與可驗證性,防止數位證據在上傳DESC後遭到竄改或損毀,亦可透過資料識別碼的比對確保數位資料的正確性與完整性。 蘇格蘭提交的刑事司法數位化與家庭暴力審查法案顯示,數位技術的應用範圍已擴大到司法領域,並透過身分驗證、記錄上傳者、上傳時間及資料識別碼等資料存證技術,確保數位證據資料的正確性、完整性與可驗證性。我國由司法院、法務部、臺灣高等檢察署、內政部警政署及法務部調查局等機關合作,透過區塊鏈技術建置「司法聯盟鏈共同驗證平台」,提升辨識數位證據同一性之效率,並確保數位證據難以被竄改,以達到加速訴訟進行之效果。惟如要透過法院採納數位資料為證據之方式,來達到加速訴訟進行之效果,重點在於要強化針對數位證據資料之管理,有訴訟證明需求的組織須通過b-JADE證明標章,以確保上鏈前之資料管理與上鏈後之資料品質。我國企業如欲強化數位資料的正確性、完整性與可驗證性,可參考資訊工業策進會科技法律研究所創意智財中心所發布之重要數位資料治理暨管理制度規範(EDGS),建立資料存證制度,確保數位資料作為證據之效力,以提升法院採納數位資料作為證據之可能性,亦有利於加速訴訟程序之進行。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
何謂瑞典「VINNOVA」?VINNOVA的組織地位與功能為何?瑞典近年來積極制定科技創新政策,為了提升政策協調度,瑞典於2001年繼續進行組織改造,創立瑞典創新系統署(Swedish Governmental Agency for Innovation Systems, VINNOVA)與瑞典研究委員會(Swedish Research Council),成為創新發展最主要的兩大支柱。 VINNOVA是瑞典推動科研創新重要的一個部署,瑞典政府相當重視此單位,每年投入約20億瑞典克朗的經費於此,且除了在斯德哥爾摩(Stockholm)設有總部外,更在比利時的布魯塞爾(Brussels)及美國矽谷(Silicon Valley)設有辦公室,以掌握世界最新的產業創新動態,其組織單位約有兩百多名員工,負責VINNOVA計畫推動等工作 。由於VINNOVA的特別地位及其執行許多協助瑞典產業創新之計畫。 VINNOVA在科技創新扮演重要的推手,政府也希望藉VINNOVA的成立促進產業社會的發展,尤其重視產業創新領域。為能順利推動科研創新的過程,且加強學術、產業及公共行政單位的研究合作,VINNOVA建立三螺旋(Triple Helix)模式,希望藉由合作而相互學習。
美國商務部國家電信和資訊管理局呼籲透過第三方評測提高AI系統透明度2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。 人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下: 1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。 2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。 3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。 4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如: (1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute); (2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure); (3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊; (4)培養第三方評測機構的專家人才。 5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。 6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。 7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。 8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。 NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。