由十個國家的科學家共同努力完成的「國際水稻基因組定序計畫( IRGSP )」,其研究成果刊登於最新一期的 Nature 期刊。科學家們共同解讀水稻 12 條染色體的基因密碼,未來將根據這些密碼來控制水稻的生長和結穗,可望有助解決全球糧食問題。 依聯合國統計資料顯示,水稻是全球人口 20% 的食物能量來源,而在全球人口持續擴增之情況下, 2025 年必須提高 30% 的水稻產量,才能擁有足夠糧食。 自1998 年起,本計畫即在日本主導之下,與中華民國、韓國、英國、加拿大、美國、巴西、印度、法國與中國等國之定序實驗室進行分工、共享,定序後的 DNA 序列將放在公開序列資料庫,供研究人員使用;而本計畫已在 2002 年底完成草圖,並陸續完成彌補空隙與基因註解工作。本計畫之成果於近幾年來,已陸續協助辨識數個影響重要農藝性狀的基因,例如,影響植物生長勢、提高水稻產量的基因、改變水稻光週期、使優良栽培種得以擴展種植面積的基因、控制植株高度的基因等。 水稻基因組定序工作之完成宣告後基因組時代的正式來臨,而完成此一世紀任務之際,善用相關經驗與新知,以投入水稻的深入研究工作,將能台灣水稻及其他作物的遺傳育種研究提供實際幫助。
美國財政部發布「非銀行金融、金融科技和創新」之金融科技創新報告美國財政部於今(2018)年7月31日發布一份重要報告,呼籲對金融科技領域的創新要採取更靈活,更有利的監管方法。這份報告主題為「非銀行金融、金融科技和創新」,其內容提及加密貨幣和分散式帳本技術(Distributed Ledger Technologies,DLT),並指出該些技術正由金融穩定監督委員會(Financial Stability Oversight Council)的工作組來主導進行跨部門的研究。整體來說,該報告表明美國政府大力推動新興金融技術的發展,並使現有的監管框架現代化,主張更加精簡和適當的監督,以消除發展過程中的障礙。並對於可能阻礙金融科技發展的法規,提出合理化建議,包括協調各州間加密貨幣交易的資金移轉立法。 美國財政部提及金融服務業正在開發的一系列DLT應用程式,其優勢仍有高度不確定性,因而進一步倡導使用監理沙盒,並鼓勵創建實驗室、工作組、創新辦公室,和其他讓行業參與者直接接觸監管機構的管道。監管機構和創新者之間的共生關係,是支持美國經濟和保持全球競爭力所必需的。該報告最後結論提到美國必須與新興技術並肩一起進步,要以不限制創新的方式來適當調整原有的監管策略。美國監管機構必須比過去更加靈活地履行職責,不能給創新的發展帶來不必要的阻礙。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
英國法院命令ISP業者提供用戶資料據統計,英國因為盜版軟體的猖獗,每年損失高達16億英鎊,且有持續上升之趨勢。為遏止網路侵權行為,英國高等法院(the High Court)日前命令該國包含BT、NTL、Telewest等10家ISPs業者,需提供用戶資料以協助權利人進行網路侵權行為案件之調查。 本案源自於反盜版聯盟( Federation Against Software Theft,簡稱Fast)於2005年1月之要求。FAST經過長達一年之調查,鎖定了150個利用P2P軟體非法進行資料分享之個人,為進一步取得渠等之個人資料,Fast於日前請求英國法院,命令各該業者交出相關侵權者之資料。高等法院根據資料保護法(Data Protection Act)之規定,同意Fast之請求,下令ISPs業者必須在兩個禮拜內提供侵權行為人之姓名、地址與其他個人詳細資料,以利Fast會同警察及檢察官進一步調查侵權情形並提起告訴。 目前軟體業者對於網路盜版軟體之處理方式,大多是透過『通知即取下』( Notice and Take-down)程序,要求網站業者協助,將侵權軟體刪除或移除連結,但遭取下之連結,隨時有可能在其他網站上再次被公布,並無法真正解決侵權行為之問題。唯有直接將侵權者繩之以法,始可能達到嚇阻之效果。但權利人卻往往礙於難以取得侵權者之真實姓名與聯絡方式,而無法對侵權者有效提起民刑事訴訟以維護其權利。Fast表示,此次行動只是其策略的第一步,最終希望能達到在發現網路侵權行為發生之當下,便能立即要求ISPs業者提供該侵權行為者之資料。 若侵權行為罪名成立,這些透過 P2P 軟體進行網路侵權行為者將可能被處以 2 年以下有期徒刑或無上限之罰金。
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。