美國柏克萊﹙Berkley﹚市議會日前無異議通過既有有害物質法令修正之決議,企圖涵蓋奈米物質之情形,此其為奈米科技地方性立法之首例。此項行動迫使研究人員及製造人必須於研究或生產過程中,申報所使用的奈米材料,以及提出有效管理奈米物質的證明。
在商業世界當中,奈米科技的目標是在原子或分子層次,藉由改變或創造新的成份,以發展出新的產品及材料。不過,這些材料是否會產生環境及健康方面的問題,目前尚不得而知。
此項修正已蘊釀兩年。市府官員表示,此項法規修正主要在於監管奈米新創事業﹙startups﹚或小型企業﹙small business﹚,而非國家型實驗室﹙the national lab﹚所造成的影響,因為後者目前係由美國能源部﹙Department of Energy﹚所管理,地方法規對其並無管理權限。一開始,國家實驗室相當反對柏克萊市的這項計畫;不過,經過溝通其表示未來將繼續支持該市市府的行動。
負責柏克萊市有害物質管理事務的Nabil Al-Hadithy表示,他期許這項新法成為其他城市有效管理奈米物質的榜樣,並希望其他城市能夠將這樣類型的規範,有效運用在全加州的健康及安全法規上。
本文為「經濟部產業技術司科技專案成果」
日本本土所栽培且有登記證照的農作物種子被拿到中國、南韓等地的案例日增,日本政府除了將提高取得品種證照者的收入之外,在六月即將完成的「智慧財產權二00六」報告中,日本政府也將擬定品種保護制度,明示未來在農業領域應該如何因應日本本土研發、栽培的農作物品種,被擅自拿到海外利用。 蔬果等種子很容易被攜帶到海外,通常在外國都遭違法大量栽培,然後再回銷日本,尤其近年來這種例子激增,迫使日本政府不得不思考對策。日本政府打算針對開發植物新品種的人或團體,根據現行的種苗法給予「育種家權利」。日本農林水產省並呼籲中、韓等亞洲國家,應該趕緊制訂完備的法令,禁止日本開發的品種未經許可被擅自生產、販售。
美國最高法院明確放寬專利權耗盡原則之適用範圍美國最高法院於2017年5月30日針對Impression Products v. Lexmark International作出最終裁決,說明當專利權人銷售專利產品時,無論在美國境內或境外,專利權人不能再以美國專利法來限制該專利產品,一經銷售後該產品專利權已經耗盡。 本案起因為美國印表機研發製造大廠Lexmark推出兩項碳粉匣方案:原價碳粉匣,無任何轉售限制;以及優惠碳粉匣,並附帶「一次性使用」(single use)及「不得轉售」(no resale)限制條款,消費者不得自行填充再利用、再轉售或轉讓給原廠以外的第三方。本案專利權人Lexmark控告同業Impression侵害其權利(違反一次性使用及不得轉售),被告Impression則主張兩項碳粉匣產品的專利權在美國境內的首次銷售後就已耗盡了。該案爭點包含:(一)專利產品在境外首次授權或銷售,是否導致專利權耗盡;(二)專利權人訂立售後限制條款,可否用以追究當事人違反限制條款責任? 地院引述最高法院過去兩個判例(Quanta案及Kirtsaeng案),裁定Lexmark專利產品因首次授權銷售情形而權利耗盡。原告Lexmark提出上訴,CAFC則認為專利產品在境外銷售情形,不會導致專利權人在境內專利權耗盡,且在首次銷售時給的授權,已經合法限制再銷售或再使用,故Impression仍構成專利侵權。 最終,最高法院推翻CAFC見解,認為無論是專利權人直接銷售,或是對專利產品加諸任何限制,專利權人決定銷售產品時,該產品相關的專利權就會耗盡。另外最高法院亦指出,當專利權人透過契約與購買者約定,限制其使用或轉售的權利,其在契約法上或許有效,但在專利侵權訴訟中則沒有用。本案後,最高法院確立採國際耗盡原則,說明專利權人在全球任何地方,產品經銷售後即權利耗盡,無論專利權人是否有任何售後限制。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。 為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。