歐盟公布競爭與創新綱要計畫

  歐盟最近公布新通過的競爭與創新綱要計畫( Competitiveness and Innovation Framework Programme 2007-2013 , 簡稱: CIFP (2007-2013) ),預計自今( 2006 )年 11 29 生效適用 CIPF (2007-2013) 旨在強化歐盟競爭與創新的能量,以期透過均衡的經濟成長,促進知識社會與永續發展。


  
CIFP (2007-2013) 根據歐盟現今的發展策略- Lisbon Strategy ,亦是將重點放在如何協助中小型企業運用其創新的潛能,開發更高品質的產品。由於去年歐盟理事會重新定位 Lisbon Strategy 的重點在於激勵企業家精神、確保新創事業可獲得充份的風險資本挹注、鼓勵並引導融入環境友善精神的創新( eco-innovation )、善用 ICT 技術、促進資源的永續利用,故而 CIPF (2007-2013) 的計畫重點也放在如何落實前述政策目標,以使「競爭與創新」、「知識經濟」以及「永續發展」得以齊頭並進。


  另
CIPF (2007-2013) 在第七期研發綱要架構( Seventh Framework Programme for research and technological development )執行期間( 2007-2013 )也將與其相輔相成,不過 CIPF (2007-2013) 重點不在研發補助,而是希望在研究與創新之間搭建橋樑,同時鼓勵各種形式的創新利用。舉例而言,如何協助將第七期研發綱要的成果進一步透過技術移轉方式鼓勵其商業化利用,即是 CIPF (2007-2013) 所要達到的任務之一,不過手段上 CIPF (2007-2013) 的經費主要會用於如何解決研究與創新之間的市場失靈問題。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 歐盟公布競爭與創新綱要計畫, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=517&no=64&tp=1 (最後瀏覽日:2026/02/01)
引註此篇文章
你可能還會想看
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

美國通過「開放、公開、電子化與必要的政府資料法」(Open, Public, Electronic, and Necessary Government Data Act)

  美國於2019年1月通過「開放、公開、電子化與必要的政府資料法」(Open, Public, Electronic, and Necessary Government Data Act),以下簡稱「政府資料公開法」,於2018年12月經參議院、眾議院通過後,2019年1月14日經美國總統川普簽署公布,為具拘束力的聯邦法。   聯邦政府往往擁有大量的寶貴資料,本法旨在要求聯邦政府機關在網路上開放發布其非敏感性資料時,應以機器可讀取的格式為之,使之更容易透過手機或其他電子設備使用(access)。意在擴大對政府資料的使用和管理,及促進私部門的創新,讓其它政府單位、各個組織或每個人都能使用這些資訊,使政府資訊透明化,同時兼顧隱私與國家安全議題。   政府資料公開法的內容係將歐巴馬總統於2013年5月9日簽署生效的「政府資訊應具有開放性和機器可讀性」(Making Open and Machine Readable the New Default for Government Information)之行政命令(Executive Order),正式立為聯邦法,促使數位政府之政策未來以開放為原則、不開放為例外。有論者認為本法原為行政指導性質之行政命令,改以法律位階為之,其原因係為了讓開放政府資料永續發展,以成文法框架拘束政府機關。   因此,該法內容在於修正美國法典第44編第35章「協調聯邦資訊政策」(Coordination of Federal Information Policy)之部分條文,主要重點整理如下: 第3502條中定義了資料資產(data asset)、開放政府資料資產(open Government data asset)、機器可讀性(machine- readable)和開放授權(open license)等。其中,「開放授權」之定義首次見於本法條文中,係指將資料資產開放供公眾近用時,針對該資料資產提供以下法律保障(legal guarantee),包含:允許公眾在毋須支付任何成本即可使用(at no cost to the public),而對於該資料資產的重製、發布、散布、傳播、引用,或改作皆不會受到限制。 聯邦政府向公眾釋出資料集時,除因智慧財產權之規定外,原則上不得加諸任何限制而影響到人民對於該資料的使用或再利用,並應以機器可讀格式(machine-readable)、開放格式(Open Format)、開放標準(Open Standard)的基礎下提供。 要求聯邦政府利用開放資料來強化其決策機制。 要求美國政府審計辦公室(Government Accountability Office, GAO)透過定期監督,來確保聯邦政府的問責制運作(accountability)。意即,GAO應向國會提交一份報告,該報告總結對機關的調查結果和趨勢,並給予其適當建議。(美國政府審計辦公室之角色為國會的監督審計機構,係立法部門的一部份,主要職責為協助、改善聯邦政府所訂的各項計畫及政策,向國會提供客觀、平衡的資訊。) 在第3520條、3520A條中,規範聯邦機構須編制首席資料專員(Chief Data Officers, CDO)及首席資料專員理事會(CDO Council),負責資料治理和執行其職責,並確保該機構遵守本法。

美國平等就業機會委員會發布「評估就業篩選程序中使用軟體、演算法及AI之不利影響」技術輔助文件

美國平等就業機會委員會(Equal Employment Opportunity Commission, EEOC)於2023年5月18日發布「根據 1964 年《民權法》第七章評估就業篩選程序中使用軟體、演算法和AI之不利影響」(Assessing Adverse Impact in Software, Algorithms, and Artificial Intelligence Used in Employment Selection Procedures Under Title VII of the Civil Rights Act of 1964)之技術輔助文件(下簡稱「技術輔助文件」),以防止雇主使用自動化系統(automated systems)對求職者及員工做出歧視決定。 該技術輔助文件為EEOC於2021年推動「AI與演算法公平倡議」(Artificial Intelligence and Algorithmic Fairness Initiative)計畫的成果之一,旨在確保招募或其他就業決策軟體符合民權法要求,並根據EEOC 1978年公布之「受僱人篩選程序統一指引」(Uniform Guidelines on Employee Selection Procedures, UGESP),說明雇主將自動化系統納入就業決策所應注意事項。 當雇主對求職者與員工做出是否僱用、晉升、終止僱傭,或採取類似行動之決定,是透過演算法決策工具(algorithmic decision-making tool),對特定種族、膚色、宗教、性別、國籍或特定特徵組合(如亞洲女性),做出篩選並產生不利影響時,除非雇主能證明該決策與職位工作內容有關並符合業務需求,且無其他替代方案,否則此決策將違反《民權法》第七章規定。 針對如何評估不利影響,雇主得依UGESP「五分之四法則」(four-fifths rule),初步判斷演算法決策工具是否對某些族群產生顯著較低的篩選率。惟EEOC提醒五分之四法則推導出之篩選率差異較高時,仍有可能導致不利影響,雇主應依個案考量,使用實務常見的「統計顯著性」(statistical significance)等方法進一步判斷。 其次,當演算法決策工具係由外部供應商所開發,或由雇主授權管理人管理時,雇主不得以信賴供應商或管理人陳述為由規避《民權法》第七章,其仍應為供應商開發與管理人管理演算法決策工具所產生之歧視結果負責。 最後,EEOC鼓勵雇主應對演算法決策工具進行持續性自我評估,若發現該工具將產生不利影響,雇主得採取措施以減少不利影響或選擇不同工具,以避免違反《民權法》第七章。

簡介日本「u-Japan政策」

TOP