韓國公布「數位平台政府實施計畫」

2023年4月韓國政府公布「數位平台政府(디지털플랫폼정부위원회,Digital Platform Government)實施計畫」,促使政府全面結合人工智慧和資料運用,打破過往部會機關個別發展數位專業的阻隔,為國民提供數位化整合的政府服務,並鼓勵企業創新。

「數位平台政府」為2022年新任總統尹錫悅推行的政府改革措施之一,同年7月頒定組織條例,成立直屬於總統之「數位平台政府委員會」,委任財政、科學、行政及個資保護4部會首長及19位專家組成。數位平台政府實施計畫預計2027年完成,計畫訂出4項數位平台政府關鍵服務任務,任務目標與對應措施如下:

(1)政府為人民服務:建立政府綜合服務窗口,統整中央、地方各級單位之千餘種稅捐、福利等內容,提供如「青年政策整合」之個性化便利服務,以減少人民不便與潛在社會問題。

(2)智慧的一體式政府:擴大機構間資料的共享與利用,打破部會之間、中央和地方政府之間的資料孤島情形,目標串連1.7萬餘的政府系統,成為政府創新基礎設施,以靈活應對快速變化的外部環境。

(3)公私協力的成長平台:打造數位經濟生態系,以交通、安全、能源和城市為初步建置領域,後續擴展到醫療、環境和公共管理等,預計培養1萬家基於此生態系經營的SaaS(Software as a Service,軟體即服務)公司。

(4)可信賴的平台政府:加強人民對個人資料的控制權,將於數位政府平台中引入資料近用記錄檢查和管理功能,並採用「零信任」、「供應鏈安全」等機制提高安全性。

相關連結
你可能會想參加
※ 韓國公布「數位平台政府實施計畫」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=8999&no=55&tp=1 (最後瀏覽日:2026/02/10)
引註此篇文章
你可能還會想看
Web2.0 網站平台管理之法制議題研析-以網路實名制與揭露使用者身份

美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」

  美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。   為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。

日本經產省公布AI、資料利用契約指引

  伴隨IoT和AI等技術發展,業者間被期待能合作透過資料創造新的附加價值及解決社會問題,惟在缺乏相關契約實務經驗的狀況下,如何締結契約成為應首要處理的課題。   針對上述狀況,日本經濟產業省於2017年5月公布「資料利用權限契約指引1.0版」(データの利用権限に関する契約ガイドラインVer1.0),隨後又設置AI、資料契約指引檢討會(AI・データ契約ガイドライン検討会),展開後續修正檢討,在追加整理資料利用契約類型、AI開發利用之權利關係及責任關係等內容後,公布「AI、資料利用契約指引草案」(AI・データの利用に関する契約ガイドライン(案)),於2018年4月27日至5月26日間公開募集意見,並於2018年6月15日正式公布「AI、資料利用契約指引」(「AI・データの利用に関する契約ガイドライン)。   「AI、資料利用契約指引」分為資料篇與AI篇。資料篇整理資料契約類型,將資料契約分為「資料提供型」、「資料創造型」和「資料共用型(平台型)」,說明個別契約架構及主要的法律問題,並提示契約條項及訂定各條項時應考慮的要點,希望能達成促進資料有效運用之目的。   AI篇說明AI技術特性和基本概念,將AI開發契約依照開發流程分為(1)評估(assessment)階段;(2)概念驗證(Proof of Concept, PoC)階段;(3)開發階段;(4)進階學習階段,並針對各階段契約方式和締結契約時應考慮的要點進行說明,希望達成促進AI開發利用之目的。

澳洲規劃研修「國家重型車輛法」並探討科技設備檢測疲勞駕駛相關規範

  澳洲國家交通委員會(National Transport Commission)與警覺、安全、生產力合作研究中心(Cooperative Research Centre for Alertness, Safety and Productivity ,Alertness CRC)於2016年12月攜手研究重型車輛駕駛員之疲勞駕駛影響,並特別探討科技設備檢測及因應的可行性,並著手研析重型車輛疲勞駕駛管理相關規範之評估規劃。   依據澳洲國家重型車輛法(Heavy Vehicle National Law,HVNL)規定,設有國家重型車輛管理獨立機構(The National Heavy Vehicle Regulator,NHVR)針對總重4.5噸之重型車輛進行規範監管。依國家重型車輛疲勞管理規則【Heavy Vehicle (Fatigue Management) National Regulation】規定針對1.超過12噸總重額(Gross Vehicle Mass,GVM)之重型車輛2. 車輛及聯結物超過12噸者3.超過4.5噸可乘載12名成人(包含司機)之巴士4.超過12噸總重額定值之卡車及聯結車,其附接工具或機械者,必須進行疲勞管制,其他對於有軌電車、工具機械車輛(例如:推土機、拖拉機)、露營車等則不在此管制對象。該法針對重型車輛工作和休息時間、工作及休息時間之紀錄、疲勞管理豁免(Fatigue management exemptions),及公司、負責人、合夥人、經理等的連帶責任,訂有相關規範。疲勞管理規則的規範核心在於駕駛員不能在疲勞的情況下行駛重型車輛,故即使符合工作和休息限制,駕駛員也可能因疲勞而受影響。   目前,因有限的證據表明工作安排對於重型車輛駕駛員疲勞的影響程度,亦很少有研究使用客觀和預測技術測量駕駛員的警覺性和疲勞,另對於駕駛員睡眠的質量和時間最低要求的資訊亦不足。因此,現行法律規範對重型車輛駕駛員疲勞的影響將受到挑戰。故警覺、安全、生產力合作研究中心將採取更精準的警報檢測方法和睡眠監測設備,進行相關研究測試,以作為未來國家重型車輛疲勞管理規則修訂之依據。   駕駛疲勞所引發的交通事故時有耳聞,往往造成重大危害與耗費社會成本。目前實務上已有利用科技設備偵測是否有疲勞駕駛情形,然而更重要的是,應落實行車前的疲勞管制,及相對應的解決方案,並加強公司及相關管理者之監督義務及連帶責任,才能有效降低疲勞駕駛肇事率,確保道路安全。

TOP