韓國公布「數位平台政府實施計畫」

2023年4月韓國政府公布「數位平台政府(디지털플랫폼정부위원회,Digital Platform Government)實施計畫」,促使政府全面結合人工智慧和資料運用,打破過往部會機關個別發展數位專業的阻隔,為國民提供數位化整合的政府服務,並鼓勵企業創新。

「數位平台政府」為2022年新任總統尹錫悅推行的政府改革措施之一,同年7月頒定組織條例,成立直屬於總統之「數位平台政府委員會」,委任財政、科學、行政及個資保護4部會首長及19位專家組成。數位平台政府實施計畫預計2027年完成,計畫訂出4項數位平台政府關鍵服務任務,任務目標與對應措施如下:

(1)政府為人民服務:建立政府綜合服務窗口,統整中央、地方各級單位之千餘種稅捐、福利等內容,提供如「青年政策整合」之個性化便利服務,以減少人民不便與潛在社會問題。

(2)智慧的一體式政府:擴大機構間資料的共享與利用,打破部會之間、中央和地方政府之間的資料孤島情形,目標串連1.7萬餘的政府系統,成為政府創新基礎設施,以靈活應對快速變化的外部環境。

(3)公私協力的成長平台:打造數位經濟生態系,以交通、安全、能源和城市為初步建置領域,後續擴展到醫療、環境和公共管理等,預計培養1萬家基於此生態系經營的SaaS(Software as a Service,軟體即服務)公司。

(4)可信賴的平台政府:加強人民對個人資料的控制權,將於數位政府平台中引入資料近用記錄檢查和管理功能,並採用「零信任」、「供應鏈安全」等機制提高安全性。

相關連結
你可能會想參加
※ 韓國公布「數位平台政府實施計畫」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8999&no=64&tp=1 (最後瀏覽日:2026/03/25)
引註此篇文章
你可能還會想看
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

可專利性(Patentability)與專利適格(Patent-Eligibility)有何不同?

  可專利性(Patentability)與專利適格(Patent-Eligibility)常被混用,但實際上兩者並不可以畫上等號。   具專利適格不等於可專利一事,在指標判例In re Bilski可窺知端倪:「新穎性(Novelty)、進步性(Non-obviousness,或稱非顯而易見性)的分析,和35 U.S.C. §101(專利適格的法源)無關,而是分別以35 U.S.C. §102、35 U.S.C. §103作為法源。」顯示專利適格、實用性(Utility,或稱「產業利用性」)、新穎性、進步性,互不隸屬。梳理美國專利法教課書(Casebook)和判決內容,可知:「專利適格」是取得專利的基礎門檻、資格,具專利適格,並不必然可專利,還須符合實用性、新穎性、可進步性,才是一個「可專利」的發明。另應強調,「專利適格」除了需要滿足§101法條文字外,還需要滿足美國專利與商標局(USPTO)的兩階段標準(Two-Step Test)審查。   綜上,可整理出這個公式: 可專利性=專利適格(§101+兩階段標準)+實用性(§101)+新穎性(§102)+進步性(§103)   觀察美國專利法教科書的編排方式,亦可了解思考脈絡:先介紹專利適格,再依序介紹實用性、新穎性、進步性。另,「實用性」在作為名詞時是採“Utility”一字,而非“Usefulness”,這兩個詞微妙的差異是前者具「有價值的(Beneficial)」之意涵,也呼應Justice Story在 Bedford v. Hunt對「實用」(Useful)經常被援引的解釋:「要能在社會中做出有價值的(Beneficial)應用,不可以是對道德、健康、社會秩序有害(Injurious)的發明,也不可以是瑣碎(Frivolous)或不重要的(Insignificant)。」

韓國未來創造科學部發表智慧資訊社會中長期計畫因應第四次產業革命

  2017年7月20日,韓國未來創造科學部發表智慧資訊社會中長期計畫(Mid- to Long-Term Master Plan in Preparation for the Intelligent Information Society)。為了因應第四次產業革命,韓國將面臨關鍵轉型,目標是成為智慧資訊社會,將人工智慧、物聯網(IoT)、雲端計算、大數據分析和移動平台,融入社會的各個面向。此外依據分析,至2030年智慧資訊社會的經濟價值估計將達到460萬億韓元,屆時絕大多數簡單重複的任務將自動化,進而消除大量的工作機會。但於此同時,也將在相關發展中的產業,創造新興就業空缺,如軟體工程和數據分析等。   韓國採取的相關措施,包括積極支持具前景的科技技術,培養創意人才、加強公私合作夥伴關係,實現韓國經濟、社會和其他有關制度所需的巨大轉型與變革。目標是在第四次產業革命中取得領導地位,為此制定智慧資訊社會中長期計畫,分為以下三大方向。   一、建構智慧IT的世界級基礎設施   發展並強化數據及網路的基礎設施,使其在全球市場上居於領導地位。   二、促進智慧IT在各產業的應用   將智慧IT技術活用於公共服務及私人部門,提高生產力、效率與國家競爭力。   三、積極改進並加強社會支援系統   透過教育改革、就業及福利服務等政策,包括培養創新人才,為社會結構改變及可能的負面衝擊作出準備,加強福利政策與社會安全網絡,以確保所有公民都能夠享受到智慧資訊社會的利益。

淺談創新應用服務(OTT)之創新與規範課題

淺談創新應用服務(OTT)之創新與規範課題 科技法律研究所 法律研究員 蔡博坤 2015年05月26日   隨著資通訊科技快速的發展,例如網際網路、雲端運算、智慧聯網、巨量資料、4G/5G等等,創新應用服務(Over-the-top, OTT)已逐漸包含各種基於網際網路之服務與內容。此科技應用的服務應如何在現行法律規範體系下被論及,其本身以及衍生的議題復為何,均為所欲介紹的核心,本文係以美國作為觀察之對象,希冀對於我國未來在OTT領域之法制有所助益。 壹、美國FCC對於創新應用服務(OTT)的態度觀察   在美國,聯邦通訊委員會(Federal Communication Commission, FCC)係美國境內主管電信與通訊領域聯邦層級的主管機關,對於網際網路上之新興應用服務,為鼓勵新興技術的發展,一向以避免管制為原則,也因此一些OTT TV或VoIP之商業模式,近年來無論係在美國境內抑或境外,皆有著長足的發展。另一方面,隨著科技快速變遷,FCC亦與時俱進持續透過公眾諮詢,尋求是否有調整相關定義,抑或擴張規範管制之必要。例如,2014年12月,FCC發布一個法規修訂公開意見徵集的通知(Notice of Proposed Rulemaking, NPRM),希冀更新目前於1934年通訊法(Communications Act of 1934)下之相關規範,以反映目前透過網際網路所提供的影音服務,特別將更新對於Multichannel Video Programming Distributor(MVPD)一詞定義。 貳、關鍵之法制課題   由於FCC在創新應用服務(OTT)領域市場管制者(market regulator)的角色乃至關重要,同時,提供此應用服務的業者,無論係電信業者還是新興科技業者,其彼此間相互且複雜之法律關係,所衍生之法制議題,實有必要探討以及釐清,謹就兩個層面的問題概述如下:   關於第一個層次網路中立(Net Neutrality)的議題,從相關案例實務判決觀察,2014年2月,美國有線寬頻業者Comcast即以頻寬有限資源,以及確保網路流量充足的理由,說服Netflix服務營運商,同意因此付費給Comcast,而雙方所進行之合作,也引起所謂網路中立性的爭議課題。今(2015)年2月,FCC於最新通過的Open Internet Order,有別於過往命令僅能有限度地適用於行動網路服務業者(mobile broadband),新的命令將能全面性地適用於固網以及行動網路業者,反應近年來在無線寬頻網路科技之快速進展,將擴張保護消費者近取網際網路的方式。   其次,觀察目前美國境內OTT的業者,包括Now TV、Netflix、Ditto TV、Whereever TV、Hulu、Emagine、myTV等,均有建置整合平台,俾利提供消費者新型態的商業服務,從知名Netflix公司所建構的平台政策,相關重要的規範課題包含資料的蒐集、處理與利用,也提到對於安全性的重視與兒少保護等。在相關隱私權議題面向,其指出,由於使用者得通過不同的媒介透過網際網路近取相關服務,誠是些來源皆有各自獨立之隱私權聲明、注意事項與使用規約,除了提醒用戶應盡相關的注意義務外,相關衍生的責任亦會予以劃清。 參、簡評   從上述可得知,創新應用服務(OTT)整體之發展,係與網際網路(Internet)相關推動工作係一體的,因此,我國未來如欲推動OTT相關創新服務,相關網際網路所衍生的議題,例如網路中立等,勢必將成為重要的法制層面所亟需探究之課題。   在我國,如同美國聯邦通訊委員會(FCC)角色之行政主管機關係國家通訊傳播委員會(NCC),在主管的法令中,目前依據電信法相關規範,電信事業應公平提供服務,除另有規定外,不得為差別處理(第21條);無正當理由,第一類電信事業市場主導者不得對其他電信事業或用戶給予差別待遇,抑或不得為其他濫用市場地位或經主管機關認定之不公平競爭行為(第26-1條)。   相關法律條文規範是否可因此援引作為討論創新應用服務(OTT)之法源基礎,復如何調和第一類電信事業市場主導者與新興應用服務科技業者之關係,仍存在著灰色地帶。從鼓勵產業創新之觀點出發,謹初步建議從正面的立場,鼓勵相關創新應用發展,宜避免逕就OTT服務過度管制。

TOP