美國眾議院通過綠色化學研發法案

  美國眾議院本(9)月通過「2007年綠色化學研究發展法案」(The Green Chemistry Research and Development Act of 2007),其目的在要求總統建立「綠色化學研究發展計畫」(Green Chemistry Research and Development Program),統籌改善聯邦政府對於綠色化學研發、教育宣導及技術移轉等活動之資源投入,而綠色化學則是指那些依安全與有效生產程序製造高品質產品時、能減少使用或產生毒性化學物質之化學產品或製程技術。美國化學協會(American Chemical Society)讚許眾議院通過本法案是睿智的舉動,表示發展綠色化學最能證明經濟和環境得同時併進,發展綠色企業實務,改善藥學加工及本土營建產業以迎刃氣候變遷及能源危機等挑戰。

 

  本法案並要求自明(2008)年起,編列經費由以下政府單位合作執行本計畫,即國家科學基金(National Science Foundation)、國家標準技術研究院(National Institute of Standards and Technology)、能源局(Department of Energy)及環保署(Environmental Protection Agency)。參議院在過去兩屆都通過類似的法案,尚等待參議院支持通過相同法案,以獲得生效。

 

  為減低對石化原料的依賴、發展生物經濟,美國政府積極投入促進綠色科技、生質科技之研發活動,例如從農林廢棄物或副產品或其他來源開發再生性原物料供綠色化學使用。此外,美國政府亦資助建立了生質(biomass)能源及產品的網路圖書館(BioWeb);BioWeb所收錄的生質科技資訊、文獻,許多都是來自大學或國家實驗室著名研究人員,都會先經各領域專家進行嚴格的同儕審查(peer-review),再開給所有公眾瀏覽;BioWeb將會持續蒐羅各種基礎及應用科學知識,並擴充各種經濟及政策相關資訊。BioWeb的理想目標,是擴大規模成為最大最有價值的生質燃料、能源及產品公共資料庫。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國眾議院通過綠色化學研發法案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2367&no=55&tp=1 (最後瀏覽日:2025/12/01)
引註此篇文章
你可能還會想看
美國司法部主導東南亞各國成立“智慧財產犯罪執法網絡”以有效打擊智慧財產犯罪

  美國司法部(DOJ)宣布召開一區域形會議,目的在建立國際性的智慧財產權犯罪執法網絡(IPCEN),尋找建立一雙邊合作協議,以打擊日益重大的智慧財產犯罪。該會議參與人除美國司法部、國務院、及美國專利商標局官員外,主要為亞洲各國智權執法人員,包含高階警察、海關官員、及檢察官,約七十餘人;上述亞洲各國包含中國、澳洲、汶萊、柬埔寨、印尼、日本、寮國、菲律賓、新加坡、南韓、泰國、及越南等十餘國家。   智權犯罪執法網絡(IPCEN)主要功能有二:一為成立論談空間,使各國執法人員能傳遞有關打擊”智權犯罪及仿冒品”的調查及起訴的成功策略案例;二為加強各國間溝通管道,以有效協調及處理跨國性的智慧財產侵權起訴案件。   對於在亞洲日益嚴重的?版及商標仿冒犯罪,此次會議中討論如何有效加強執法力時,各國代表多承認有效的智慧財產權起訴取決於被害人及執法單位的合作。   各國代表並說明智慧財產犯罪的嚴重性及建立國際性的智權犯罪執法網絡的重要:「保護美國及世界各國的智慧財產權為各國司法單位首要的任務之一,而在智權犯罪最嚴重的區域,建立智慧財產犯罪執法網絡(IPCEN)更是重要的執行步驟,以有效保護世界各國的智慧財產權」。「仿冒品不僅損害世界經濟體系,更嚴重威脅到各國人民的健康及安全,惟有建立一國際性的網絡協定,才能打擊嚴重的智慧財產犯罪」。「仿冒品,?版品及游走各邊境及海關政策漏洞已造成權利人近百億元損失,而IPCEN能使各國執法單位相互結盟,將可保障合法權利人權利,避免侵權者藉由跨國犯罪免責及獲取不當利益」。   美國司法部已派駐一經驗豐富的聯邦檢察官於美國駐泰國大使館,專責推動此網絡建立的執行,以保護智慧財產權人之權益。

美國專利商標局(USPTO)針對「第三人先前技術意見書(Preissuance Submissions)提呈制度」發布最終規則

  USPTO日前針對「第三人先前技術意見書提呈制度」,於7月17日發布最終規則( Final Rules)。此項規則的頒佈,主要是因應2011年9月「Leahy-Smith 美國發明法案」(Leahy-Smith America Invents Act,簡稱AIA)的修法,所為的配套措施。     所謂「第三人先前技術意見書提呈制度」是指:賦予第三人權利,得於專利審查程序中提供專利審查員相關先前技術文獻,作為審查核駁之參考。美國在2011年討論AIA修法之際,大多肯定此制度可提升專利審查之品質,因而修法放寬了第三人可提呈的文獻類型、期限。而本次USPTO發布的最終規則,便以此修正為背景,進一步具體說明相關程序適用規則,主要包括:     (1)可提呈的文獻包含專利案、已公開的專利申請案、及其他與審查核駁相關並已公開之文獻;但不包含法院機密文件、商業機密文件及其他內部未公開之訊息;(2)第三人得利用USPTO現有的電子申請系統(EFS-Web)申請;(3)第三人得保持匿名,例如透過律師提呈文獻;(4)縱使USPTO駁回其申請,第三人仍可在法定期限內重新提交新的申請;(5)提呈之文獻如為外文文獻,第三人須提供英文翻譯本。     如同2011年修訂通過的「Leahy-Smith 美國發明法案」,此次USPTO所頒布的最終規則亦將於2012年9月16日起施行。預計將擴大第三人提呈先前技術意見書之比例,但對於專利申請人將造成甚麼影響,值得持續觀察。

美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」

  美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。   為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

TOP