有鑒於智慧聯網IoT環境下,許多智慧型手持裝置及行動通訊裝置,大量蒐集消費者資訊之隱私權暨資訊安全考量,美國國會於2013年5月10日提出「應用軟體隱私暨資訊安全保護法草案」(Application Privacy, Protection, and Security Act of 2013, APPS Act of 2013, H.R. 1913)進行審議。「應用軟體隱私暨資訊安全保護法草案」草案針對應用軟體(Application)在蒐集消費者資訊前,如何落實「同意」機制,乃強制行動通訊裝置應用軟體開發商(developer)應:(1)提供使用者個人資料蒐集、使用、儲存及公開之通知(notice),而該通知含括所蒐集個人資料之種類、使用目的、有償公開第三者之類別及資料儲存等;(2)取得使用者之同意(consent);消費者依據該草案亦有權撤銷其「同意」(withdrawal of consent)。此外,草案乃強制要求該行動通訊裝置應用軟體開發商,就非法近取之個人資料及經去識別化應用軟體蒐集之個人資料,應採取合理及適當之防衛措施(security measures on personal data and de-identified data)。
並且,針對網路環境下隱私權保護議題,更早之前,美國國會於2013年2月28日提出「線上禁止追蹤法草案」(Do-Not-Track Online Act of 2013) 進行審議。「線上禁止追蹤法草案」草案乃要求聯邦貿易委員會(FTC),就透過個人線上活動追蹤,以蒐集、使用個人資料之行為態樣,進行管制。該管制模式謹據以要求如下:(1)被搜集資料個人應收到簡單、明確、並載明資料使用目的之通知(clear, conspicuous and accurate notice and use of such information),而個人就該通知應予明白之同意(affirmative consent);(2)FTC未來在訂定標準規範時,應(shall)考量所被搜集之資料,是否在匿(隱)名基礎上處理之,遂該資料無法有效被聯結(指認)到特定個人或裝置上;此外,消費者當享有資料不被蒐集的權利(expressed preference by individual not to have personal information collected)。該草案並就違反之個人,設定最高15,000,000美元損害賠償規定。
日本總務省為透過推動社會全體數位化,實現SDGs及Society 5.0目標,自2018年12月起召開「數位變革時代之ICT全球化戰略懇談會」(デジタル変革時代のICTグローバル戦略懇談会)檢討具體對策,並於2019年5月31日公布「ICT全球化戰略」(ICTグローバル戦略)。「ICT全球化戰略」基於社會全體數位化、推廣Society 5.0,以及透過提昇產業構造和勞動環境效率,創造具備豐富多彩價值之社會等理念,提出(1)透過數位化達成SDGs戰略︰公私部門合作推動社會全體之數位化,解決日本及世界社會問題;(2)資料流通戰略︰以確保個人資料之可控性為前提,推動制定國際規範及進行法制環境整備;(3)AI/IoT加值運用戰略︰提出以人類為中心之AI原則,檢討AI時代之資料重要性,推動AI人才培育;(4)網路安全戰略︰因應IoT機器和服務發展,確保網路安全性;(5)ICT海外展開戰略︰因應世界數位市場發展趨勢,檢討如何推動日本企業於海外發展;(6)開放創新戰略︰從利用次世代溝通技術提高生活品質、實現由資料所驅動之社會、建構支援未來之高度化網路等方向出發,推動相關研發計畫等6大戰略。
美國ULC公布統一虛擬貨幣事業監管規範建議,提供各州虛擬貨幣管制立法架構參考2017年美國統一法律委員會(Uniform Law Commission, ULC)於2017年9月公布「統一虛擬貨幣事業監管法」(Uniform Regulation of Virtual Currency Business Act, 以下簡稱VCBA)全文、總說明以及利害關係人意見,對於虛擬貨幣(virtual currency)提供管制架構,囊括虛擬貨幣定義和適用範圍、營業執照要求、跨州互惠原則、消費者保護、網路安全、反洗錢和對進行虛擬貨幣商業活動者之監管等重要問題,作為各州相關立法參考。迄今美國夏威夷州和內布拉斯加州分別向州議會提案,朝向採用VCBA作為該州虛擬貨幣管制參考規範之方向討論。
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。
澳洲提出《2023年法定聲明修正法案》,將正式認可數位化法定聲明的效力澳洲眾議院在2023年9月提出了《2023年法定聲明修正法案》(Statutory Declarations Amendment Bill 2023),法定聲明(statutory declaration)是大英國協法體系中的一種法律行為,效力相當於宣誓,以確認聲明人聲明內容為真。如受雇者可以法定聲明的方式聲明自己的工作經歷屬實,以做為受雇資料不全時的補充。該修正案將使數位方式(digital execution)進行的法定聲明和傳統書面形式具有相同效力。 澳洲政府在Covid-19期間,為了因應疫情對於整個社會的衝擊,在實體接觸困難的社會環境下導入大量臨時措施,但是這些臨時措施將會於2023年12月31日時效到期後失去效力。 本次的修正案除了將允許電子簽名(electronic signature)和視訊見證(video-link witnessing)等數位形式作為進行法定聲明的方式外,亦進一步規定只有在經過核可並且授權的數位平臺(如myGov)才可以進行有效的數位法定聲明。除此之外,使用者也需通過這些線上平臺的身分驗證(如myGovID)後才能使用這一服務,以確認法定聲明發表人的身份並確保該聲明之效力。 為了確保透明和釐清平臺的責任歸屬,該法案除了對數位平臺進行隱私、資安和防詐騙的規範外,亦禁止數位平臺儲存或保留使用者法定聲明的副本,因為這些法定聲明可能都含有高度敏感的個人資訊。 該法案的目的並非要完全取代傳統書面紙張在法定聲明中的地位,而是為了澳洲人民在做成法定聲明時提供另一個不受到地理、實體限制的選擇,這種改變讓個人和企業藉由數位化平臺快速且不受實體距離影響完備所需的法律文件,使他們能夠便捷的享有那些需要法定聲明的政府服務。 澳洲政府為了因應社會變遷及數位時代的來臨,在法律體系中賦予數位形式明確效力,並且嘗試建立起可信賴的數位平臺與路徑,其制度設計及後續影響,可以作為我國推動國家數位轉型時的參考。