美國白宮發布國家生物經濟藍圖

  美國白宮終於2012年4月26日正式發布「國家生物經濟藍圖」(National Bioeconomy Blueprint),宣告未來美國將以生物技術為首的投資、研究與商業經濟活動列為優先支持的對象。近年來美國苦思於如何在國內經濟成長疲軟與失業問題上尋求解套,而有鑒於全球「生物經濟」(Bioeconomy)的快速崛起,歐巴馬政府遂寄望於生物經濟,期望藉由支持生物技術的研究創新與商業活動,帶動國內投資、提升就業率及經濟成長,並仰賴生物科技的發展增進國民福址。因此,白宮科學與技術政策辦公室(The White House's Office of Science and Technology Policy, OSTP)便於2011年10月起開始向生物醫藥、生物科技相關產業及研究機構徵集意見,歷經半年的規劃,始產出此部發展藍圖。

  國家生物經濟藍圖首先劃定生物經濟的五大趨勢,包括:健康、能源、農業、環境及知識技術的分享。其次揭示了未來美國生物經濟的五大發展策略目標及其具體作法: (一)支持各項研發投資以建立生物經濟的發展基礎:

(1)強化生物技術的各類研究發展,如生物醫藥、生質能源、生物綠建築、生物農業等
(2)實施新的補助機制以使得生物經濟投資達最大化,例如國家科學基金會於2012年推動的CERATIV(Creative Research Awards for Transformative Interdisciplinary Ventures)獎補助計畫。
(二)促進生物技術發明的市場應用與商業化:
(1)加強生物醫藥的轉譯及管制科學(translational and regulatory science)發展;
(2)由國家衛生研究院(National Institutes of Health,NIH)及食品藥物管理局(Food and Drug Administration,FDA)等相關主管機關主動檢視、調整既有法規,以加速生物技術成果的商業化(如生物醫藥的上市)。
(三)改革並發展相關規範,以減少法規障礙、增加規範程序的效率與可預測性:
(1)減少可能影響生醫產業發展的法規障礙;
(2)對於低風險的醫療裝置,降低其遵循法規的成本負擔;
(3)由食品藥物管理局等相關主管機關,對於醫藥產品採行雙向規範審查(Parallel Regulatory Review),以減少產品上市時間。
(四)更新相關國家人才培訓計畫,並調整學術機構對學生訓練的獎勵機制,以符合國家與產業發展的勞動需求。
(五)支持公私夥伴及競爭前合作(Precompetitive Collaborations)關係的發展:由國家衛生研究院及食品藥物管理局等相關主管機關鼓勵、支持公私或私人部門間形成夥伴關係,共同針對生物醫藥及食品安全進行創新研究發展。

  由「國家生物經濟藍圖」對美國未來生物經濟發展的策略及具體做法看來,其內容相當廣泛,從促進各種生物技術的研發投資、生技成果商業化運用、產品上市管制鬆綁、科技人員培育,再到公私部門合作的增進,完整涵蓋了整個生物技術產業發展的各個必要環節,雖已點出生物技術產業發展有待突破之處,但對於其具體法規與配套機制,仍有待日後一一落實。因此,未來本藍圖將如何形塑美國各領域生物技術產業的輪廓,並影響法規與促進機制之細節,值得持續觀察之。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 美國白宮發布國家生物經濟藍圖, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5756&no=55&tp=1 (最後瀏覽日:2026/04/25)
引註此篇文章
你可能還會想看
美國發布防止特定國家存取大量敏感個人資料與政府相關資料之行政命令

美國總統拜登於2024年2月28日簽署了防止特定國家存取美國人大量敏感個人資料與美國政府相關資料之第14117號行政命令(Executive Order on Preventing Access to Americans’ Bulk Sensitive Personal Data and United States Government-Related Data by Countries of Concern,E.O. No. 14117),目的是為了防止敏感個人資料與政府資料大規模轉移至「受關注國家」或其所涉人員,主要以「受關注國家」、「受規範對象」、「資料類型」、「禁止行為」與相關豁免規定等項目,進一步授權司法部訂定規範,而美國司法部已於2024年3月5日在〈聯邦公報〉公布行政命令之擬制法規制定預告(Advance Notice of Proposed Rulemaking,下稱ANPRM),並於公布後45日內蒐集意見,內容簡述如下: 1.受關注國家:中國(包括香港及澳門)、俄羅斯、伊朗、北韓、古巴、委內瑞拉等可能造成美國國家安全重大風險之國家。 2.受規範對象:由受關注國家所掌控之實體及具有契約關係之人或實體,或以該等國家為主要居住地之外國人等皆屬之。 3.資料類型:本次ANPRM定義了大量敏感個人資料與政府相關資料,並公布「大量」(bulk)之參考值,將受規範個人識別指標、地理位置和相關感測器數據、生物特徵識別指標、基因組資料、個人健康資料、個人金融資料等6大類資料,用以詮釋敏感個人資料;而資料涉及美國聯邦政府(含軍方)所控制之敏感位置皆屬政府相關資料。 4.禁止行為:涉及受關注國家、受規範對象以及符合上述資料類型之資料交易行為,皆被列為禁止行為,例如:透過簽訂服務或投資協議、供應或僱傭契約而進行之資料交易行為等情形,但也由於適用範圍較廣,因此訂有豁免規定,例如:美國政府為履行公務而由僱員、承包商因公務所為之資料交易行為則可受豁免。 我國作為全球重要的高科技產業供應鏈之一員,因地緣關係與部分受關注國家進行產品製造供應或貿易往來,故可能受此行政命令之影響,ANPRM未來修訂方向值得我國持續關注其後續發展。

歐盟人工智慧辦公室發布「通用人工智慧實踐守則」草案,更進一步闡釋《人工智慧法》之監管規範

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 歐盟人工智慧辦公室(European AI Office)於2024 年 11 月 14 日發布「通用人工智慧實踐守則」(General-Purpose AI Code of Practice)草案,針對《人工智慧法》(Artificial Intelligence Act, AIA)當中有關通用人工智慧(General Purpose Artificial Intelligence, GPAI)之部分,更進一步闡釋相關規範。 本實踐守則草案主要分為4大部分,分別簡介如下: (1)緒論:描述本守則之4個基本目標,包含協助GPAI模型提供者履行義務、促進理解人工智慧價值鏈(value chain)、妥適保障智慧財產權、有效評估且緩解系統性風險(systemic risks)。 (2)GPAI模型提供者:有鑒於GPAI模型對於下游系統而言相當重要,此部分針對模型提供者訂定具體責任。不僅要求其提供訓練資料、模型架構、測試程序等說明文件,亦要求制定政策以規範模型用途防止濫用。另於智慧財產權方面,則要求GPAI模型提供者遵守「歐盟數位單一市場著作權指令」(Directive 2019/790/EC)之規定。 (3)系統性風險分類法(taxonomy):此部分定義GPAI模型之多種風險類別,諸如可能造成攻擊之資訊安全風險、影響民主之虛假資訊、特定族群之歧視、超出預期應用範圍之失控情形。 (4)高風險GPAI模型提供者:為防範系統性風險之危害,針對高風險GPAI模型提供者,本守則對其設立更高標準之義務。例如要求其於GPAI模型完整生命週期內持續評估風險並設計緩解措施。 本守則發布之次週,近千名利害關係人、歐盟成員國代表、國際觀察員即展開討論,透過參考此等回饋意見,預計將於2025年5月確定最終版本。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

美國法院於 8 月 9 日判決「隱私權合理期待不及於網際網路用戶資訊」

  在 Freedman v. America Online 一案中,原告 Freedman 使用 AOL(ISP 業者 ) 的電子郵件帳號匿名寄送一封載有「末日近了 (The end is near) 」之郵件給另外兩個康乃迪克州之居民,該郵件之收文者將其視為對於安全威脅之信件並立即報警處理。警員 Young 和警官 Bensey 雖製作了筆錄與提出搜索令 ( 授權令 ) 之申請,然而在將該等文件送交州檢察官辦公室並經同意前, Young 即將該等文件傳真給 AOL 法務部門,一周後 AOL 即提供 Freedman 之姓名、地址、電話號碼與其他許多與原告之 AOL 電子郵件帳號有關之訊息,原告因而提起訴訟,主張提供其帳戶資料之行為侵犯其隱私權,已違反美國憲法修正條文第四條。   法院認為在美國憲法修正條文第四條之意旨下,網路使用者不能合理期待其用戶資訊為其隱私權所及範圍,主要理由為當網路使用者申請使用服務前,用戶本身已在其本身知悉之情況下將其資訊提供給 ISP 業者,使該 ISP 業者得以提供相關服務,且 AOL 已在其使用合約中註明,倘於其用戶或他人受有人身威脅 (physical threat) 之個別案例之情況下 ( 如同本案例事實 ) , AOL 將提供用戶資訊,而「電子通訊隱私權法案 (The Electronic Communications Privacy Act) 」第 2510 條以下條文亦規定,於有人身損害之虞 (the risk of physical injury) 之情況下,用戶資料之揭露即具正當性。

TOP