日本通過數位社會形成基本法

  日本國會於2021年5月12日,通過由内閣官房資通訊技術總合戰略室提出之數位社會形成基本法(デジタル社会形成基本法)。數位社會之形成,將有助於提升國際競爭力與國民便利性,因應少子化、高齡化與其他重要課題,本法之立法目的係為推動數位社會形成,使日本國內經濟健全發展,幫助國民幸福之實現。

  本法之重點概如下述:

  1. 數位社會之定義係指藉由先進資通訊技術,適當有效活用各式各樣大量之電磁紀錄資訊,使各領域均得創新蓬勃發展之社會。
  2. 數位社會形成之理念係為了使國民生活能切實感受到寬裕和富足,實現國民得安全安心生活之社會,降低數位落差,並確保在數位社會下,個人與法人權利以及其他法律所保護之利益。
  3. 國家須制定數位社會形成之政策,具體包含確保高度資訊通訊網路與資通訊技術之可及性、整合國家與地方自治團體資訊系統、使國民得活用國家與地方自治團體之資訊、建立公部門基礎資訊資料庫、確保資通安全等。
  4. 為形成數位社會,明定國家、地方政府及企業之相關責任義務。
  5. 依數位廳設置法設置由內閣管轄之數位廳,並制定數位社會形成相關之重點計畫。
  6. 廢止高度資通訊網路社會形成基本法(IT基本法),以數位社會形成基本法為新資通訊技術戰略。

相關連結
相關附件
※ 日本通過數位社會形成基本法, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8683&no=65&tp=1 (最後瀏覽日:2025/06/04)
引註此篇文章
你可能還會想看
為加強兒少網路安全,英國通訊管理局發布「兒少風險評估指導原則」以及「兒少保護行為準則」

為加強兒少網路安全,英國通訊局(Office of Communication)於2025年4月24日發布「兒少風險評估指導原則」(Children's Risk Assessment Guidance)以及「兒少保護行為準則」(Protection of Children Codes of Practice),以供受規範之網路服務提供者遵循。 「兒少風險評估指導原則」要求所有受《網路安全法》(Online Safety Act 2023)規範的「使用者對使用者服務」(user-to-user service)和「搜尋服務」(search service)的服務提供者,在完成兒少存取評估(children’s access assessments)確認服務有可能被兒少存取後,必須在三個月內即2025年7月24日前,完成兒少風險評估(children’s risk assessments)。 至於「兒少保護行為準則」一經國會審議通過,則自2025年7月25日起生效,服務提供者必須採取「兒少保護行為準則」規定的安全措施(safety measures),或實施其他有效手段,以減少上開風險發生的可能性。 「兒少保護行為準則」列出的安全措施包括: 一、更安全的資訊發送: 有運作推薦系統(recommender system)且存在中度或高度有害內容風險的服務提供者,應調整其演算法,確保不向兒少推播有害內容。 二、有效的年齡驗證: 風險最高的服務提供者必須使用高度有效的年齡驗證,以識別使用者是否為兒少。 三、有效的內容審查: 服務提供者應建立內容審查機制,一旦發現有害兒少的內容時,能迅速採取行動。 四、更多的選擇與支援: 服務提供者應賦予兒少更多的控制權,包括允許對內容或貼文表達不喜歡、接受或拒絕群組聊天邀請、封鎖用戶、將用戶設為靜音、以及關閉自己貼文的留言功能等。 五、簡便的舉報與申訴: 服務提供者應提供透明的舉報與申訴管道,且確保提出舉報和申訴的管道和方式對兒少而言相對輕鬆且簡單。 六、強化的治理: 服務提供者應設置負責兒童安全的專責人員,高層團隊並應每年審查兒童風險管理情況。 如服務提供者未能履行上開義務,英國通訊局可處以罰款。必要時,甚至可向法院聲請禁制令封鎖該平台。 處在網路無限擴張的時代,保障兒少網路安全絕對是重要且不容忽視的課題。英國通訊管理局發布的實施作法,非常值得我國觀察學習與參考。

紐約市議員向議會提出禁止行動裝置相關業者共享客戶位置資訊的法案

  紐約市議員Justin Brannan於2019年7月23日向紐約市議會提交一項內容為禁止電信公司和手機應用程式開發商與第三方共享客戶位置資訊(location data)的法案(Int 1632-2019, Prohibition on sharing location data with third parties.)。   該法案原則上,禁止電信公司和手機應用程式開發商與第三方(例如:行銷人員)共享客戶的位置資訊,主要原因在於一般客戶並不清楚自己的位置資訊被共享給第三人,且對於第三人取得其位置資訊後的利用行為存有疑慮。又,位置資訊應屬個人隱私的一部分,故未取得客戶本人同意,即共享其位置資訊無疑是對客戶個人隱私的侵犯。如公司違反法案規定,執法機關對該公司之罰款,以「行為次數」作為計算單位,每次課予1,000美元,惟就同一名受害者,如一天內有數個違法行為,則當天罰款上限為10,000美元。同時,該法案賦予位置資訊被違法共享的當事人,得就其權利被侵害之事實,向法院提訴訟,以為救濟。   不過,該法案並非「絕對」禁止位置資訊的共享,如屬下列情形,例外可共享: 為配合執法機關執行法定職務之所需,如:法律調查等程序,而提供客戶之位置資訊。 為911緊急服務之所需提供,或為免除本人之生命或財產上之急迫危險,提供其位置資訊。 聯邦法律、州法或地方法明文要求應提供。 客戶授權電信公司或手機應用程式開發商得與第三方共享其位置資訊。   這部法案主要目的在於,保障行動裝置使用者的位置資訊,不會在當事人不知情的情形下被提供給第三方。雖然目前該法案尚在審議中,但未來如果通過,紐約市將成為禁止出售個人行動裝置位置資訊的先鋒,同時其執行結果勢必也將成為關注焦點。

歐盟執委會發布《受禁止人工智慧行為指引》

歐盟執委會發布《受禁止人工智慧行為指引》 資訊工業策進會科技法律研究所 2025年02月24日 歐盟繼《人工智慧法》[1](Artificial Intelligence Act, 下稱AI Act)於2024年8月1日正式生效後,針對該法中訂於2025年2月2日始實施之第5條1,有關「不可接受風險」之內容中明文禁止的人工智慧行為類型,由歐盟執委會於2025年2月4日發布《受禁止人工智慧行為指引》[2]。 壹、事件摘要 歐盟AI Act於2024年8月1日正式生效,為歐盟人工智慧系統引入統一之人工智慧風險分級規範,主要分為四個等級[3]: 1. 不可接受風險(Unacceptable risk) 2. 高風險(High risk) 3. 有限風險,具有特定透明度義務(Limited risk) 4. 最低風險或無風險(Minimal to no risk) AI Act之風險分級系統推出後,各界對於法規中所說的不同風險等級的系統,究竟於實務上如何判斷?該等系統實際上具備何種特徵?許多內容仍屬概要而不確定,不利於政府、企業遵循,亦不利於各界對人工智慧技術進行監督。是以歐盟本次針對「不可接受風險」之人工智慧系統,推出相關指引,目的在明確化規範內涵規範,協助主管機關與市場參與者予以遵循。 貳、重點說明 一、AI Act本文第5條1(a)、(b)-有害操縱、欺騙與剝削行為 (一)概念說明 本禁止行為規定旨在防止透過人工智慧系統施行操縱與剝削,使他人淪為實現特定目的工具之行為,以保護社會上最為脆弱且易受有害操控與剝削影響的群體。 (二)禁止施行本行為之前提要件 1.該行為必須構成將特定人工智慧系統「投放於歐盟市場」(placing on the market)[4]、「啟用」(putting into service)[5]或「使用」(use)[6]。 2.應用目的:該人工智慧系統所採用的技術具有能實質扭曲個人或團體行為的「目的」或「效果」,此種扭曲明顯削弱個人或團體做出正確決定的能力,導致其做出的決定偏離正常情形。 3.技術特性:關於(a)有害的操縱與欺騙部分,係指使用潛意識(超出個人意識範圍)、或刻意操控或欺騙的技術;關於(b)有害地利用弱勢群體部分,是指利用個人年齡、身心障礙或社會經濟狀況上弱點。 4.後果:該扭曲行為已造成或合理可預見將造成該個人、另一人或某群體的重大傷害。 5.因果關係:該人工智慧系統所採用的技術、個人或團體行為的扭曲,以及由此行為造成或可合理預見將造成的重大傷害之間,具備相當因果關係。 二、AI Act本文第5條1(c)-社會評分行為 (一)概念說明 本禁止行為規定旨在防止透過人工智慧系統進行「社會評分」可能對特定個人或團體產生歧視和不公平的結果,以及引發與歐盟價值觀不相容的社會控制與監視行為。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該人工智慧系統必須用於對一定期間內,自然人及群體的社會行為,或其已知、預測的個人特徵或人格特質進行評價或分類。 3.後果:透過該人工智慧系統所產生的社會評分,必須可能導致個人或群體,在與評分用資料生成或蒐集時無關的環境遭受不利待遇,或遭受與其行為嚴重性不合比例的不利待遇。 三、AI Act本文第5條1(d)-個人犯罪風險評估與預測行為 (一)概念說明 本禁止行為規定之目的,旨在考量自然人應依其實際行為接受評判,而非由人工智慧系統僅基於對自然人的剖析、人格特質或個人特徵等,即逕予評估或預測個人犯罪風險。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該人工智慧系統必須生成旨在評估或預測自然人施行犯罪行為風險的風險評估結果。 3.後果:前述風險評估結果僅依據於對自然人的剖析,或對其人格特質與個人特徵的評估。 4.除外規定:若人工智慧系統係基於與犯罪活動直接相關的客觀、可驗證事實,針對個人涉入犯罪活動之程度進行評估,則不適用本項禁止規定。 四、AI Act本文第5條1(e)-無差別地擷取(Untargeted Scraping)臉部影像之行為 (一)概念說明 本禁止行為規定之目的,旨在考量以人工智慧系統從網路或監視器影像中無差別地擷取臉部影像,用以建立或擴充人臉辨識資料庫,將嚴重干涉個人的隱私權與資料保護權,並剝奪其維持匿名的權利。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該行為以建立或擴充人臉辨識資料庫為目的。 3.技術特性:填充人臉辨識資料庫的方式係以人工智慧工具進行「無差別的擷取行為」。 4.因果關係:建立或擴充人臉辨識資料庫之影像來源,須為網路或監視器畫面。 五、AI Act本文第5條1(f)-情緒辨識行為 (一)概念說明 本禁止行為規定之目的,旨在考量情緒辨識可廣泛應用於分析消費者行為,以更有效率的手段執行媒體推廣、個人化推薦、監測群體情緒或注意力,以及測謊等目的。然而情緒表達在不同文化、情境與個人反應皆可能存在差異,缺乏明確性、較不可靠且難以普遍適用,因此應用情緒辨識可能導致歧視性結果,並侵害相關個人或群體的權利,尤以關係較不對等的職場與教育訓練環境應加以注意。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該系統係用於推斷情緒。 3.因果關係:該行為發生於職場或教育訓練機構。 4.除外規定:為醫療或安全目的而採用的人工智慧系統不在禁止範圍內。例如在醫療領域中,情緒辨識可協助偵測憂鬱症、預防自殺等,具有正面效果。 六、AI Act本文第5條1(g)-為推測敏感特徵所進行之生物辨識分類行為 (一)概念說明 本禁止行為規定之目的,旨在考量利用人工智慧之生物辨識分類系統(Biometric Categorisation System)[7],可依據自然人的生物辨識資料用以推斷其性取向、政治傾向、信仰或種族等「敏感特徵」在內的各類資訊,並可能在當事人不知情的情況下依據此資訊對自然人進行分類,進而可能導致不公平或歧視性待遇。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該行為係針對個人進行分類;而其辨識目的係為推斷其種族、政治傾向、工會成員身分、宗教或哲學信仰、性生活或性取向等。 3.技術特性:該系統必須為利用人工智慧,並依據自然人的生物辨識資料,將其歸類至特定類別之生物辨識分類系統。 4.因果關係:前述分類依據為其生物辨識資訊。 5.除外規定:本項禁止規定未涵蓋對合法取得的生物辨識資料進行標記(Labelling)或過濾(Filtering)行為,如用於執法目的等。 七、AI Act本文第5條1(h)-使用即時遠端生物辨識(Remote Biometric Identification, RBI)系統[8]執法[9]之行為 (一)概念說明 本禁止行為規定之目的,旨在考量在公共場所使用即時RBI系統進行執法,可能對人民權利與自由造成嚴重影響,使其遭受監視或間接阻礙其行使集會自由及其他基本權利。此外,RBI系統的不準確性,將可能導致針對年齡、族群、種族、性別或身心障礙等方面的偏見與歧視。 (二)禁止施行本行為之前提要件 1.該行為必須涉及對即時RBI系統的「使用」行為。 2.應用目的:使用目的須為執法需要。 3.技術特性:該系統必須為利用人工智慧,在無需自然人主動參與的情況下,透過遠距離比對個人生物辨識資料與參考資料庫中的生物辨識資料,從而達成識別自然人身份目的之RBI系統。 4.因果關係:其使用情境須具備即時性,且使用地點須為公共場所。 參、事件評析 人工智慧技術之發展固然帶來多樣化的運用方向,惟其所衍生的倫理議題仍應於全面使用前予以審慎考量。觀諸歐盟AI Act與《受禁止人工智慧行為指引》所羅列之各類行為,亦可觀察出立法者對人工智慧之便利性遭公、私部門用於「欺詐與利用」及「辨識與預測」,對《歐盟基本權利憲章》[10]中平等、自由等權利造成嚴重影響的擔憂。 為在促進創新與保護基本權利及歐盟價值觀間取得平衡,歐盟本次爰參考人工智慧系統提供者、使用者、民間組織、學術界、公部門、商業協會等多方利害關係人之意見,推出《受禁止人工智慧行為指引》,針對各項禁止行為提出「概念說明」與「成立條件」,期望協助提升歐盟AI Act主管機關等公部門執行相關規範時之法律明確性,並確保具體適用時的一致性。於歐盟內部開發、部署及使用人工智慧系統的私部門企業與組織,則亦可作為實務參考,有助確保其自身在遵守AI Act所規定的各項義務前提下順利開展其業務。 [1]European Union, REGULATION (EU) 2024/1689 OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL (2024), https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=OJ:L_202401689 (last visited Feb. 24, 2025). [2]Commission publishes the Guidelines on prohibited artificial intelligence (AI) practices, as defined by the AI Act., European Commission, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act (last visited Feb. 24, 2025). [3]AI Act, European Commission, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai (last visited Feb. 24, 2025). [4]依據本指引第2.3點,所謂「投放於歐盟市場」(placing on the market),係指該人工智慧系統首次在歐盟市場「提供」;所謂「提供」,則係指在商業活動過程中,以收費或免費方式將該AI系統供應至歐盟市場供分發或使用。 [5]依據本指引第2.3點,所謂「啟用」(putting into service),係指人工智慧系統供應者為供應使用者首次使用或自行使用,而於歐盟內供應人工智慧系統。 [6]依據本指引第2.3點,「使用」(use)之範疇雖未在AI Act內容明確定義,惟應廣義理解為涵蓋人工智慧系統在「投放於歐盟市場」或「啟用」後,其生命週期內的任何使用或部署;另參考AI Act第5條的規範目的,所謂「使用」應包含任何受禁止的誤用行為。 [7]依據AI Act第3條(40)之定義,生物辨識分類系統係指一種依據自然人的生物辨識資料,將其歸類至特定類別之人工智慧系統。 [8]依據AI Act第3條(41)之定義,RBI系統係指一種在無需自然人主動參與的情況下,透過遠距離比對個人生物辨識資料與參考資料庫中的生物辨識資料,從而達成識別自然人身份目的之人工智慧系統。 [9]依據AI Act第3條(46)之定義,「執法(law enforcement)」一詞,係指由執法機關或其委任之代表,代替其執行目的包括預防、調查、偵測或起訴刑事犯罪,或執行刑事處罰,並涵蓋防範與應對公共安全威脅等範疇之行為。 [10]CHARTER OF FUNDAMENTAL RIGHTS OF THE EUROPEAN UNION, Official Journal of the European Union, https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:12012P/TXT (last visited Feb. 24, 2025).

歐洲藥物管理局(EMA)加強與歐洲毒品與毒癮監控中心(EMCDDA)於精神性影響藥物和藥物濫用上的資訊交換合作

  2010年藥物主動監視法規(pharmacovigilance legislation)要求EMA和EMCDDA必須加強在藥物產品濫用(包含不合法藥品)的資訊交換合作關係,是以,EMA和EMCDDA於今年九月初於葡萄牙里斯本相互簽署了修訂工作協議(amended working arrangement),約定在新型精神性影響藥物與藥物濫用的面向上,加強相互間的資訊交流合作。   於EMA和EMCDDA所簽訂的修正工作協議中,雙方約定就下列領域深化資訊交換: 1.雙方需各自依照歐盟執委會2005/387/JHA決議和歐盟1235/2010號法規第28c(2)條,對於所擁有之新型精神性影響藥物與藥物濫用(包含不合法藥品)資訊進行交換合作; 2.資訊交換需透過通常基準的報告形式由EMCDDA送至EMA,並含括有關於藥物產品濫用、不合法藥物,以及新型精神性影響物質等相關資訊; 3.EMA必須通知EMCDDA有關於藥物產品濫用的有效導因(validated signals),同時,EMA必須提供EMCDDA有關於藥物產品濫用和新型精神性影響藥品市場核准狀況的細部資訊; 4.EMA對於選定藥物產品之風險管理計畫的界定,可考量是否需先行與EMCDDA作諮詢意見交換; 5.EMA和EMCDDA在歐盟執委會2005/387/JHA決議和歐盟1235/2010號法規第28c(2)條所設基礎的合作模式下,必須要特別注意確保人類或動物健康照護並無惡化的情事,同時應確保科學建議之潛在衝突於前階段將會被界定與管理; 6.EMA和EMCDDA兩者間諮詢的進行,必須避免非關於新型精神性影響物質風險評估之科學建議的潛在衝突; 7.對於任何額外合作計畫的執行,必須考量EMA和EMCDDA兩者的例行性工作規劃; 8.對於特定計畫需要額外資源時,必須經由EMA和EMCDDA共同同意,並將同意文件附於現階段的工作協議中; 9.EMA和EMCDDA可就其各自舉辦的會議相互邀請對方,並邀請對該會議有興趣的其他團體參與; 10.對於EMA和EMCDDA間實際的合作面向,將在工作協議既定架構下繼續發展。   除了前述的適用範圍外,EMA和EMCDDA的修訂工作協議,亦有就相互諮詢和秘密資訊等領域作出約定,以確保資訊交換係在符合雙方需求與不侵害個人基本權利的情況下進行。有鑑於EMA和EMCDDA希冀藉由資源互補的強化約定,來彌補自身於精神性影響藥物和藥物濫用領域的資訊不足缺陷,是否我國在相關醫療、藥品管制或是藥品商業化資訊需有跨機關的整合機制,以促使我國在醫療、醫藥資訊交換與流通,在不侵害個人基本權利的情況下,能夠發揮互益效用,則是我國有關單位必須審慎思考的問題。

TOP