發展奈米 應避開專利地雷

  美國知名研究機構雷克斯研究公司 ,九月底 應經濟部邀請,在國際招商論壇上,以「奈米科技的創新與創投」為題,發表專題演講。其副總裁挪登馬修( Matthew M.Nordan )指出,奈米科技的重要性,在於其未來將應用到各個產業上,改變各個產業原有風貌。從創投業者立場,所選擇投資對象,是要能以奈米科技來促進原有產品功能,或能大幅降低原有產品成本。此外,如何避開專利地雷,亦將是各企業在投入奈米科技時,必須正視的問題。


  挪登表示,二
○○三年全球在奈米科技的相關研究經費約為八十六億美元,其中只有二億美元來自於創投基金,創投業界對奈米科技的投入如此保守,除受到網路經濟泡沫衝擊,主要是因為奈米科技的商品化,還有一段很長的路要走,加上創投業者多半對材料工業比較陌生,業界過去又傳出多起投資失敗的案例,均讓創投業者不敢對奈米科技有大手筆投入。相對於創投業者的保守態度 如何判斷優質的奈米科技投資案更形重要 其表示,除企業必須提出如何能避開國際已有的「專利地雷」,或取得國際專利的交互授權外,更重要的是,投資人必須瞭解,奈米科技的應用,並不是要開發出一個全新的「奈米產品」,或者應用奈米科技就能帶來超額的利潤,而是能對現存產業,帶來功效的提升或成本的降低。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 發展奈米 應避開專利地雷, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=485&no=57&tp=1 (最後瀏覽日:2026/05/02)
引註此篇文章
你可能還會想看
美國ULC公布統一虛擬貨幣事業監管規範建議,提供各州虛擬貨幣管制立法架構參考

  2017年美國統一法律委員會(Uniform Law Commission, ULC)於2017年9月公布「統一虛擬貨幣事業監管法」(Uniform Regulation of Virtual Currency Business Act, 以下簡稱VCBA)全文、總說明以及利害關係人意見,對於虛擬貨幣(virtual currency)提供管制架構,囊括虛擬貨幣定義和適用範圍、營業執照要求、跨州互惠原則、消費者保護、網路安全、反洗錢和對進行虛擬貨幣商業活動者之監管等重要問題,作為各州相關立法參考。迄今美國夏威夷州和內布拉斯加州分別向州議會提案,朝向採用VCBA作為該州虛擬貨幣管制參考規範之方向討論。

美國商務部國家電信和資訊管理局呼籲透過第三方評測提高AI系統透明度

2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。 人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下: 1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。 2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。 3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。 4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如: (1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute); (2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure); (3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊; (4)培養第三方評測機構的專家人才。 5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。 6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。 7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。 8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。 NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。

歐盟執委會通過關於《人工智慧責任指令》之立法提案

  歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。   《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。   歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。

美國聯邦通訊委員會修改廣播電視業者對於兒童關看電視的保護義務

  美國聯邦通訊委員會( The Federal Communications Commission /FCC )在 2006 年 9 月,修改並解釋 2004 年一項課與廣播電視業者對兒童觀看電視保護義務之指令。在 2004 年提出的指令中對廣播電視業者有許多規定,包括:電視業者被要求提供兒童適當比例基準之核心( core )教育及資訊節目,並於該類型節目中全程播放中標示 E/I 的符號;允許在節目中出現網站網址,但限制兒童節目中顯示非與節目相關以及有商業目的之網站網址;原兒童節目之插播限制規定;以及修改所謂商業內容定義等。   這次對該指令的再修改,則是希望透過確保提供適當比例的兒童教育資訊節目、將廣告及其他兒童節目之行為納入商業內容定義,以及顯示網站網址之新限制規定,讓邁向數位化世界下之公眾利益能獲得保障。特別是在同時確保不過份削減廣播電視業者以及有線電視業者節目時間編排彈性下,保護兒童免於在廣播電視以及有線電視節目中,接收過多商業訊息。

TOP