奈米科技之前瞻性規劃-以美國推行綠色奈米為中心

刊登期別
第21卷,第11期,2009年11月
 

本文為「經濟部產業技術司科技專案成果」

※ 奈米科技之前瞻性規劃-以美國推行綠色奈米為中心, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=3206&no=64&tp=1 (最後瀏覽日:2026/03/26)
引註此篇文章
你可能還會想看
英國Ofcom完成第一階段數位通訊審查

  英國Ofcom在2015年7月16日公布數位通訊審查第一階段之報告,指出英國未來可能面臨的挑戰問題,希望使消費者以及企業在未來的十年甚至以後能享有高品質的數位通訊服務。Ofcome先前在2015年3月提出預計進行數位通訊政策審查,檢視競爭、投資、研發以及所有數位通訊服務的使用情形,包括寬頻、行動電話、以及捆綁式服務等。 Ofcom針對四個主要領域部分提出建議: 1.市場的投資與研發,有助於服務普及。 Ofcom預估10Mbit/s為必要的寬頻速度,可以提供每天熱門的線上服務使用,例如影視音隨選服務。然而,目前英國僅有8%家戶可以取得此等速度服務。因此,Ofcom檢視法規如何使未來超高速寬頻的商業應用發展更完備。同時,Ofcom預估將來4G行動寬頻將達98%,但未來消費者與企業的期望也將隨之增高,因此仍有待於再加強網路投資。 2.競爭,藉此能提供有品質的服務和良好的價格。 在此次的檢討中,Ofcom將檢視以下議題: (1) 保留目前運作模式:電信網絡部門Openreach有別於BT,在功能上不同,利用一般性市場審查來說明任何與競爭相關之問題。 (2) 將目前的運作模式延伸: 透過對於BT的新規範,例如利用較強的誘因來控制批發價格,藉此改善服務品質,或甚至當BT出現問題時,以處罰方式進行。 (3) 將Openreach從BT中劃分,藉此可以對末端使用者有良好的競爭利益。 (4) 去管制並且促進網路競爭。 3.賦予消費者以及業者有選擇的權利,尤其是可以自由選擇或轉換這些服務提供業者。 對於Ofcom而言,所要考量的重點在於消費者在選擇服務時,是否以擁有充分的資訊可以參考。同時要思考消費者在轉換服務業者時,其是否具有障礙。 4.持續追蹤法規議題,為使市場能構良好運作,應該去管制。 例如OTT網路通訊服務,對於行動業者而言將需要較少的管制,或是是否將現有的規範直接延伸規定。   未來,在此項檢討之後,ofcom將再進行第二階段的檢視,預計於2015年10月8日進行回應討論,以促使整體英國具有良好的通訊服務環境。

布拉格提案(The Prague Proposals)

  2019年5月3日,來自全球30多國的政府官員與來自歐盟、北大西洋公約組織的代表於捷克布拉格所舉辦的5G資安會議(Prague 5G Security Conference)中,強調各國建構與管理5G基礎建設時應考慮國家安全、經濟與商業發展等因素,特別是供應鏈的安全性,例如易受第三國影響之供應商所帶來的潛在風險,本會議結論經主辦國捷克政府彙整為布拉格提案(The Prague Proposals),作為提供世界各國建構5G基礎建設之資安建議。   在這份文件中首先肯認通訊網路在數位化與全球化時代的重要性,而5G網路將是打造未來數位世界的重要基礎,5G資安將與國家安全、經濟安全或其他國家利益,甚至與全球穩定等議題高度相關;因此應理解5G資安並非僅是技術議題,而包含技術性與非技術性之風險,國家應確保整體性資安並落實資安風險評估等,而其中最關鍵者,則為強調確保5G基礎建設的供應鏈安全。   因此在布拉格提案中強調各國建構通訊網路基礎建設,應採用國際資安標準評估其資安風險,特別是受第三國影響之供應商背後所潛藏之風險,並應重視5G技術變革例如邊緣運算所產生的新風險態樣;此外對於接受國家補貼之5G供應商,其補貼應符合公平競爭原則等。布拉格提案對於各國並無法律上拘束力,但甫提出即獲得美國的大力肯定與支持。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

英國猶疑應否開放人獸混合細胞之胚胎幹細胞研究

  英國之胚胎幹細胞研究活動,係根據「1990年人類受精與胚胎學法」(Human Fertilisation and Embryology Act 1990,HF&E Act)和「2001年人類受精與胚胎學規則」(Human Fertilisation and Embryology (Research Purposes) Regulations 2001,Research Purposes Regulations)之規定,授權由「人類受精與胚胎學管理局」(Human Fertilisation and Embryology Authority,HFEA)依法管理。   新堡大學東北英格蘭幹細胞中心(North East England Stem Cell Institute)Lyle Armstrong博士,在去年底向HFEA申請一項涉及混合人類與動物細胞製造胚胎幹細胞之研究許可;其計劃利用細胞核轉置技術,將牛的卵子細胞核取出,植入人類體細胞核,並刺激其分裂形成胚囊或早期複製胚胎,用以研究培養病患所需身體組織之技術。過去HFEA從未曾核准過此類研究,僅核准過2件利用細胞核轉置技術和單性活化卵母細胞製造胚胎幹細胞株作為醫學研究之申請。此研究申請訊息一流出,即引起保守團體嘩然及指責,要求英國政府應盡速立法,禁止製造人獸混合細胞之實驗活動。面對各界抗議聲浪,HFEA表示,會暫緩此申請案。   事實上,去年12月英國健康部提出了一篇報告-「人工生殖及胚胎學法之檢討」(Review of the Human Fertilisation and Embryology Act),建議國會應儘速立法規範人類動物細胞混合研究。而英國政府與人民究竟能否接受混合人類動物遺傳細胞研究之合法性、合道德性,則為未來立法動向之重要指標。

TOP