稻米基因定序大功告成,有助解決全球糧食問題

  由十個國家的科學家共同努力完成的「國際水稻基因組定序計畫( IRGSP )」,其研究成果刊登於最新一期的 Nature 期刊。科學家們共同解讀水稻 12 條染色體的基因密碼,未來將根據這些密碼來控制水稻的生長和結穗,可望有助解決全球糧食問題。


  依聯合國統計資料顯示,水稻是全球人口
20% 的食物能量來源,而在全球人口持續擴增之情況下, 2025 年必須提高 30% 的水稻產量,才能擁有足夠糧食。


  自
1998 年起,本計畫即在日本主導之下,與中華民國、韓國、英國、加拿大、美國、巴西、印度、法國與中國等國之定序實驗室進行分工、共享,定序後的 DNA 序列將放在公開序列資料庫,供研究人員使用;而本計畫已在 2002 年底完成草圖,並陸續完成彌補空隙與基因註解工作。本計畫之成果於近幾年來,已陸續協助辨識數個影響重要農藝性狀的基因,例如,影響植物生長勢、提高水稻產量的基因、改變水稻光週期、使優良栽培種得以擴展種植面積的基因、控制植株高度的基因等。


 水稻基因組定序工作之完成宣告後基因組時代的正式來臨,而完成此一世紀任務之際,善用相關經驗與新知,以投入水稻的深入研究工作,將能台灣水稻及其他作物的遺傳育種研究提供實際幫助。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 稻米基因定序大功告成,有助解決全球糧食問題, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=414&no=57&tp=1 (最後瀏覽日:2026/01/18)
引註此篇文章
你可能還會想看
營業秘密管理概要

Dell與Alcatel-Lucent在東德州“線上買賣”(Online Buying)專利侵權訴訟,Dell敗訴

  美國東德州聯邦地方法院的法官於今年2月5日,對Dell指稱Alcatel-Lucent侵害其所有之兩項線上管理顧客及產品資料的電腦製造方法專利乙案作出判決。判決指出,因為Dell無法向陪審團證明Alcatel-Lucent有引誘或侵害Dell專利權的事實,而Alcatel-Lucent亦無法以明確且具說服力的證據證明系爭案件中Dell所有的專利為無效,所以本案亦無任何損害賠償問題。Dell於訴訟中所主張的兩項專利權,主要為關於加速促進顧客線上下單購物的技術,其美國專利權號碼分別為6,182,275及6,038,597。關於本判決結果,原告Dell方面尚未表示是否會對本判決提起上訴,然被告法商Alcatel-Lucent則對此判決結果表示則肯定。   Alcatel-Lucent與Dell之間的專利訴訟並未就此結束, Alcatel-Lucent在加州之前起訴Dell, Gateway及Microsoft專利侵權之訴訟,主要為影像解碼及選擇影像播放模式技術之專利,專利號碼分別為4,958,226; 4,383,272; 4,763,356;5,347,295及 4,439,759.,該專利訴訟自2003年開始在加州纏訴。Alcatel-Lucent主張被告三家公司應給付專利侵權之損害賠償一共超過美金30億的天價,本案業已上訴,審理的法院已訂期將於近日展開審判。然而,由於Gateway去年被宏碁(Acer)併購後,已積極地與Alcatel-Lucent進行談判,雙方並於今年2月中達到庭外和解的協議。所以,Dell在東德州敗訴的消息,是否會影響其未來在加州是否會繼續訴訟或尋求庭外和解的態度,將是市場人士專注的焦點。

法學新論:從產業全球化佈局觀點論我國研發成果管理之法制政策

新加坡網路安全局發布人工智慧系統安全指南,以降低AI系統潛在風險

新加坡網路安全局(Cyber Security Agency of Singapore, CSA)於2024年10月15日發布人工智慧系統安全指南(Guidelines on Securing AI Systems),旨在強化AI系統安全,協助組織以安全之方式運用AI,降低潛在風險。 該指南將AI系統生命週期分成五個關鍵階段,分別針對各階段的安全風險,提出相關防範措施: (1)規劃與設計:提高AI安全風險認知能力,進行安全風險評估。 (2)開發:提升訓練資料、模型、應用程式介面與軟體庫之供應安全,確保供應商遵守安全政策與國際標準或進行風險管理;並辨識、追蹤及保護AI相關資產(例如模型、資料、輸入指令),以確保AI開發環境安全。 (3)部署:適用標準安全措施(例如存取控制、日誌記錄),並建立事件管理程序。 (4)運作與維護:持續監控AI系統的輸入和輸出,偵測異常與潛在攻擊,並建立漏洞揭露流程。 (5)壽命終期:應根據相關行業標準或法規,對資料與模型進行適當之處理、銷毀,防止未經授權之存取。 CSA期待該指南發布後,將有助於預防供應鏈攻擊(supply chain attacks)、對抗式機器學習攻擊(Adversarial Machine Learning attacks)等安全風險,確保AI系統的整體安全與穩定運行。

TOP