韓國中小企業暨新創事業部(Ministry of SMEs and Startups, MSS)於2023年8月30日公布「韓國新創政策」(Startup Korea),是一項提供新創企業中、長期支持的全面性政策。
韓國中小企業暨新創事業部部長李泳(LEE Young)指出,韓國新創生態圈受政府積極推動創新創業政策以及鼓勵創業的大力支持不斷蓬勃發展。而政府創新創業政策在面對近年來勢洶洶的全球數位浪潮中,必須有所變革創新,方足以因應現今數位經濟時代下之產業轉型需求,從而在競爭激烈的全球市場中勝出。
「韓國新創政策」提出三大重點策略:
(1)超越邊界(Beyond Boundaries):MSS將打造國際級的創業生態新系統,以加速韓國新創企業與國際接軌。
放寬外國專業人才工作簽證(E-7 Visa)申請標準,向擁有創新技術發展可行性的外國新創提供創業家簽證(Startup Visa)和資金,以建立更具包容性的創業生態系統。
(2)團結一致(Solidarity):MSS將推動政府民間攜手整合資金投入新創,同時還將為新創企業引介更多的財務資源。
設立「韓國新創基金」(Startup Korea Fund),由政府與民間共同投資,目標是到2027年時基金總規模可達2兆韓元,將以具先進科學和工程創新技術的深度技術(Deep Tech)新創,例如AI、半導體等為重點投資對象。此外,亦將透過更多元的投資和貸款模式,增加新創企業取得資金的管道。
(3)產業群聚、平等機會以及開放式創新(Regional Startup, Equal Opportunity + Open Innovation):MSS將推動新創產業群聚生態鏈的發展,以及加速企業集團與新創企業的鏈結。
計劃建構新創產業群聚生態鏈,以帶動長期被忽視的區域產業發展可能性。例如將在定錨企業(Anchor Company)、大學以及研究機構緊密生活商圈中建設Space-K創業中心(Provincial Space-K)。又,推動新創與企業間之合作項目擴大到AI以及生物技術等十大新興產業。
藉由「韓國新創政策」,韓國力求實現新增5家百大新創獨角獸,以及成為全球前三大「新創企業之國」之目標。
面對全球數位轉型浪潮,台灣政府應從國際動向觀察政策趨勢,韓國中小企業暨新創事業部發布之「韓國新創政策」,非常值得我國參考借鏡。
歐盟執委會(European Commission, EC)於2019年10月18日發布電子政府基準報告(eGovernment Benchmark 2019: trust in government is increasingly important for people)。電子政府基準是歐盟的年度檢測工具,用以確認公部門中資通訊技術使用狀況,亦是歐盟2016-2020年的重點政策之一:2016年4月,歐盟執委會發布「歐盟e政府四年行動計畫」(EU eGovernment Action Plan 2016-2020),歐盟應致力落實「公共行政現代化」、「跨境數位行動服務」和「加強公部門與公民和企業的數位互動」等三面向。電子政府基準報告即因應此一政策方向而生。 電子政府基準的評測指標有四:以使用者為中心(User centricity)、透明度(Transparency)、跨境移動(Cross-border mobility)、其他關鍵促成因素(Key enablers)。報告中評估2019年總體表現最佳的國家是馬爾他、奧地利等;立陶宛和芬蘭等國則為其次;表現低於平均者則多為東南歐國家。報告中亦提到,現階段公民已十分容易在機關官網上取得所需資訊,但相較於提供給一般公民的服務,機關官網對企業提供之服務通常更加完整及清楚。另外,在推行各項電子政府措施時,公民對政府的信任益發重要。唯有公民信任該機關,包含對機關安全在線服務、個人資料透明度、公共網路安全等的信賴,機關數位化改革才能常態運作。因此,電子政府的發展是建立在人們信任相關數位服務,並與政府交流時更容易知悉並利用該服務。 再觀我國電子化政府之發展,自民國87年至今已進入第五階段。初期致力建設政府骨幹網路和電子認證、90年代持續深化及擴大政府網路應用,並推動10大旗艦計畫實現網路政府主動、分眾、持續及紮根之服務。101年後建構電子化政府之設備、網路和應用服務,發展資訊服務系統整合、全程服務及跨部門協調。近期分別有「第五階段電子化政府計畫-數位政府」和「服務型政府推動計畫」,以資料驅動、公私協力、以民為本之核心理念,透過巨量資料、開放資料和服務個人化等工具,發展跨機關一站式整合服務及打造多元協作環境,落實數位政府服務。
韓國擬藉由推動著作權認證制度,解決著作權海外交易難題韓國文化體育觀光部(Ministry of Culture, Sports and Tourism, MCST)為推動著作權認證制度,依其著作權法第56條及施行令第36條第7項規定,指定韓國著作權委員會(Korea Copyright Commission)作為著作權認證業務之負責機關,期達到維護著作權海外交易秩序及提升交易雙方之信賴度之目標。 所謂「著作權認證」,是指任何人欲證明自己為合法享有權利者,可透過具有公信力之第三方機關確認權利關係,並取得認證書後,藉以證明自己是權利人或被授權人。今年係以輸出海外市場(中國等)之音樂、電影、電視劇等內容為第一階段著作權認證對象,並提供免手續費之優惠服務。欲進行著作權認證之申請人(如著作權人、受讓著作權或取得授權之個人或企業等),應提出認證申請書和客觀上可確認其本身擁有權利事實之證明資料(如權利變動或授權相關契約等),向韓國著作權委員會申請,該委員會須於15天內進行審查,確認權利後即發予申請人認證書。 韓國著作權委員會相關人士表示,韓國著作權委員會此次被指定為著作權認證機關之目的,係因韓流文化擴散,帶動韓國內容產業進入國際市場,然針對海外著作權交易,權利歸屬狀態不清楚常成為雙方甚至包括第三方的爭執點,故擬透過推動著作權認證制度,克服外國人利用韓國著作過程中,難以分辨權利人真偽或找不到權利人之困境。透過韓國政府機關確認著作之權利關係所給予具公信力之認證書,確保著作權交易秩序之穩定與信賴。 韓國著作權認證制度目的在於:協助韓國企業得以在海外順利進行著作權交易,以活絡著作權交易流通。反觀我國並無著作權相關認證制度,加上著作權並非採登記對抗主義,為降低海外著作權交易可能衍生之紛爭,未來或可借鏡韓國作法,推動一套符合我國產業環境之著作權認證機制。
澳洲國家交通委員會發布管制政府近用C-ITS和自駕車資料政策文件,提出政府近用自駕車蒐集資料規範原則2019年8月12日澳洲國家交通委員會(NTC)提出「管制政府近用C-ITS和自駕車資料(Regulating government access to C-ITS and automated vehicle data)」政策文件,探討政府使用C-ITS與自駕車資料(以下簡稱資料)所可能產生的隱私議題,並提出法律規範與標準設計原則應如下: 應平衡政府近用資料與隱私保護措施,以合理限制蒐集、使用及揭露資料。 應與現行以及新興國內外隱私與資料近用框架一致,並應進行告知。 應將資料近用權利與隱私保障納入立法中。 應以包容性與科技中立用語定義資料。 應使政府管理資料措施與現行個資保護目的協調一致。 應具體指明資料涵蓋內容、使用目的與限制使用對象,並減少資料被執法單位或經法院授權取得之阻礙。 應使用易懂之語言知會使用者關於政府蒐集、使用與揭露以及資料的重要性。 認知到告知同意是重要的,但同時應提供政府於取得同意不可行時,平衡個人隱私期待之各種可能途徑。 認知到不可逆的去識別化資料在許多情況下的困難度。 支持資料安全保護。 定期檢查資料隱私保護狀態與措施。 以上這些原則將會引導NTC發展自駕車資料規範與國家智慧運輸系統框架,NTC並將於2019年內提出更進一步規劃相關工作之範疇與時間點。
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).