美國有限合夥發展於我國之借鏡

刊登期別
第25卷,第4期,2013年04月
 

※ 美國有限合夥發展於我國之借鏡, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6031&no=57&tp=1 (最後瀏覽日:2026/02/19)
引註此篇文章
你可能還會想看
歐盟科技倫理委員會公布和成生物學ELSI意見

  歐盟科學與新科技倫理委員會(European Group on Ethics in Science and New Technologies, EGE)在今(2009)年11月18日公布合成生物學(Synthetic Biology)公布相關之倫理、法制與社會議題之意見,其中指出合成生物學具有可大幅降低生技藥品生產成本的極大潛力,但也可能帶來的風險,故應予注意。     對很多人來說,合成生物學是一個相當新穎的概念,經濟合作發展組織(Organisation for Economic Co-operation and Development , OECD)在其所公布的2030生物經濟發展議程中,將其列為最具有發展潛力的新興生物技術之一,近來更被歐美先進國家視為生物技術產業的未來重點發展方向。     根據OECD的定義,所謂合成生物學,是以工程方法為基礎,以改進微生物的新興領域,此技術使設計與建構新生物元件(part)、裝置(device)及系統(system),及對於既存的自然生物系統,使其更具有使用性。合成生物學的目的,在於藉由設計細胞系統,使其具備特定功能,從而消除浪費細胞能量之非期待的產物,以增進生物效率。目前合成生物學與市場較為接近的案例,乃一種將青蒿(sweet wormwood herb)、細菌與酵素等基因、分子路徑(molecular pathway)作結合,製造出可以生產治療瘧疾(malaria)的青蒿酸之細菌,此項開發成功突破過去僅能透過植物青蒿獲得,並產量有限的瓶頸。     正由於看好和成生物學的發展潛力,美國、英國與歐盟都開始對此項技術可能帶來的倫理、法制與社會爭議進行評估,歐盟EGE更公布意見以作為未來訂定法規範時的參考。EGE在意見中表示合成生物學使用於能源技術、生物製藥、化學工業或材料科學等都深具前景,故建議歐盟執委會應對此技術發展給予支持,並在歐盟架構計畫下,以產業利用為前提,給予經費的支持;然也必須重視其ELSI問題,包括使用合成生物產品的安全性、對環境的長期影響、惡意使用之防免、專利與公共財的爭議等,為了解決此等問題,其也要求各會員國必須針對合成生物學的各種議題,加強與民眾、利害關係人及社會的對話。由於我國一直將生技產業視為發展重點,合成生物學關係著生技產業未來發展,其未來發展實不容為我國所忽略。

英特爾將停用開源碼授權

  英特爾公司宣布,將廢止一項適用於部分自家軟體的開放原始碼授權辦法。這家晶片製造公司表示,已通知開放原始碼促進會 (Open Source Initiative ; OSI) 移除英特爾的開源碼授權許可,未來不再以 OSI 認可的授權形式繼續使用。 OSI 是一個非營利性機構,其宗旨在推廣使用開放原始碼軟體,並且在 OSI 網站上公布一份開放原始碼軟體授權清單。該公司希望把英特爾開放原始碼授權 (Intel Open Source License) 「移除,未來停用」,藉此降低授權協議日益增多的情形。    授權協議如雨後春筍般地孳生,已引起開放原始碼社群人士關切,因為授權版本大增之後,有意採用開放原始碼軟體的企業必須多花一些錢評估、管理各類型的授權,無形中導致成本增加。英特爾發言人表示,決定廢止開源碼授權,是發現公司內部數年來一直未使用,公司以外的使用頻率也不高。 Smith 說,英特爾不希望讓這項授權的「解除許可」效力回溯既往,以免迫使企業重新取得程式碼的使用授權。

OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

物聯網時代的資料保護防線-以歐盟GDPR為中心

TOP