日本「u-Japan政策」簡介

刊登期別
2005年12月,第220期
 

相關附件
※ 日本「u-Japan政策」簡介, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=763&no=64&tp=1 (最後瀏覽日:2026/03/10)
引註此篇文章
你可能還會想看
德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南

  德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南,旨在提升企業數位化與社會責任,並提升消費者權益保護。   德國司法及消費者保護部次長Gerd Billen於會議中指出,無論技術細節和具體應用如何發展,法律和消費者保護政策應確保人工智慧安全性,且不因此受歧視,以及盡可能確保技術利用透明度。而隨著人工智慧的發展,應設法解決使用人工智慧產生的法律問題。   例如,如何在製造商,供應商和消費者之間公平分配責任歸屬問題?在家庭,物流和手術室等領域已有越來越多具備自我學習的機器人被應用,相關權利是否會有所不同?如果機器出現不明原因故障,會發生什麼情況及如何處置?當機器透過在製造時尚未完全預定的環境感官認知做出具體決定時,該自動行為所生效力為何? 本份指南則提出六項建議: 促進企業內部及外部訂定相關準則 提升產品及服務透明度 使用相關技術應為全體利益著想 決策系統的可靠性仍取決資料的準確性。 重視並解決解決機器偏差問題 在特別需要負責的決策過程,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。

網路服務提供者於2016中國大陸反恐法下之通報義務

  中華人民共和國第12屆全國人民代表大會常務委員會第18次會議於2015年12月27日通過並公布《中華人民共和國反恐怖主義法》(以下簡稱反恐法),並自2016年1月1日開始施行。反恐法第18條與第19條要求電信業務經營者與互聯網服務提供者,應當為公安機關、國家安全機關依法進行防範、調查恐怖活動「提供技術接口和解密等技術支持和協助」,並應當依照法律與行政法規規定,「落實網絡安全、信息內容監督制度和安全技術防範措施,防止含有恐怖主義、極端主義內容的信息傳播;發現含有恐怖主義、極端主義內容的信息的,應當立即停止傳輸,保存相關記錄,刪除相關信息,並向公安機關或者有關部門報告。」倘有違反以上規定且情節嚴重者,反恐法第84條授權由主管部門對該公私處50萬人民幣以上罰款,並對該公司直接負責之主管人員與其他直接責任人員處10萬元人民幣以上50萬人民幣以下罰款,並可由公安機關對該等人員處5日以上15日以下之拘留。   我國刻正進行資通安全管理法之制定,以為範圍更廣之資訊基本法的作用法。資通安全管理法當中考量納入與關鍵基礎建設相關之民間產業,使之成為資安通報之一環,政府需要民間企業配合時也將於法有據。於恐怖攻擊事件頻傳之今日,倘我國需要就此等事件要求電信業者或服務提供者進行通報時,相關國際立法例及其實踐,即值參酌。

因應ChatGPT人工智慧趨勢,為企業提出營業秘密管理建議

2022年11月美國OpenAI公司推出人工智慧大型語言模型ChatGPT,提供全球使用者透過輸入文本方式向ChatGPT提出問題,雖營業秘密不需絕對保密,惟是否會「因向ChatGPT揭露營業秘密而使營業秘密喪失了秘密性」? 依OpenAI公司「非API訪問數據政策」規定,ChatGPT透過OpenAI公司的AI訓練人員審核「使用者上傳至ChatGPT的資訊」,提供ChatGPT反饋,強化ChatGPT進行有效的學習,讓ChatGPT模仿人類語言回覆使用者所提出的問題。在AI訓練人員未將「使用者上傳至ChatGPT的資訊」交由ChatGPT訓練、學習前(上次訓練是在2021年9月),此聊天內容不會成為ChatGPT給其他使用者的回答,此時資訊對於公眾仍具秘密性。依據ChatGPT的使用條款第5(a)條之單方保密義務規定:「OpenAI公司、其子公司及其他第三方公司可能賦予使用者『機密資訊的接觸權限』,但使用者僅限於使用條款所允許的服務中使用該些機密資訊,不得向第三方揭露該機密資訊,且使用者至少應採取合理的注意保護該機密資訊。所謂機密資訊係指OpenAI公司、其子公司及其他第三方公司(1)指定的非公開資訊,或(2)合理情況下,被認定為機密資訊者,比如軟體、規格及其他非公開商業資訊。」。即ChatGPT對於使用者輸入的聊天內容不負保密義務。 公司將程式碼、會議紀錄等敏感資訊與ChatGPT共享,不必然屬於「因揭露營業秘密而使營業秘密喪失秘密性」,考量訓練數據量大,秘密性取決於周遭環境與揭露性質,例如: 1.揭露的資訊類型,比如飲料配方可能會比客戶名單更容易取得。 2.揭露的環境,比如競爭對手、大眾是否能提出具體問題,以致能取得他人聊天內容的營業秘密。 為在ChatGPT的趨勢下確保營業秘密的秘密性,建議企業採取的管理策略如下: 1.透過「資訊分類」以識別可共享的資訊。 2.審核涉及敏感資訊的協議、公司政策及供應商契約。 3.採取實體、數位的資訊保密措施,並留意尊重員工隱私,比如限制接觸某些網站或應用程式,應留意員工的手機是否能繞過此限制。 4.建立公司保密文化,如透過公司培訓、新人入職教育訓練,定期提醒其應負擔的保密義務。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。

英國民航局發布航空AI監管策略三文件,以因應AI於航空領域之挑戰與機會

英國民用航空局(United Kingdom Civil Aviation Authority, CAA)於2024年12月3日發布「CAA對新興AI驅動自動化的回應」(The CAA's Response to Emerging AI-Enabled Automation)、「航空人工智慧與先進自動化監管策略」(Part A:Strategy for Regulating AI and Advanced Automation in Aerospace)以及「CAA 應用AI策略」(Part B: Strategy for Using AI in the CAA)等三份文件。首先,前者概述CAA對於AI應用於航空領域之總體立場,強調以確保安全、安保、消費者保護及環境永續等前提下,促進AI技術在相關航空領域之創新與應用;其次,「航空人工智慧與先進自動化監管策略」著重說明如何於航空領域監管AI技術之使用,以兼顧推動創新並維持安全性及穩健性;最後,「CAA 應用AI策略」則聚焦於CAA內部使用AI技術提升監管效率與決策能力的策略。 由於AI正迅速成為航空產業之重要技術,其應用範圍包含航空器、機場、地面基礎設施、空域、航太、消費者服務等,具有提高航空安全性、運作效率、環境永續性與消費者體驗之潛力。然而,相關技術風險與監管挑戰亦伴隨而至,仍需新的監管框架應對潛在風險。因此,總體而言CAA以推動AI創新技術、提升航空產業效率與永續性為目標,透過了解技術前景、建立AI通用語言,並以航空領域之五大原則為監管框架之制定核心,建立靈活的AI監管體系,維持最高水準的安全保障。五大原則及案例分述如下: (1) 安全、安保與穩健性(Safety, Security and Robustness),例如:使用AI分析航空器感測器資料進行預測維護,以利提早發現問題。 (2) 透明與可解釋性(Transparency and Explainability),例如:清楚記錄AI系統如何提出空中交通路線建議。 (3) 可質疑性與矯正機制(Contestability and Redress),例如:制定一套明確的流程,以便航空公司查詢並了解AI生成的安全建議。 (4) 公平與偏見(Fairness and Bias),例如:確保自動化旅客篩查安檢系統公平對待所有旅客。 (5) 問責與治理(Accountability and Governance),例如:明確界定AI系統在機場運營中的監管角色與職責。 .Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em}

TOP