論智慧科技裝置之法律問題—美國資訊隱私法制變革與發展

刊登期別
第26卷第10期,2014年10月
 

本文為「經濟部產業技術司科技專案成果」

※ 論智慧科技裝置之法律問題—美國資訊隱私法制變革與發展, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6736&no=55&tp=1 (最後瀏覽日:2025/12/02)
引註此篇文章
你可能還會想看
淺談我國能源關鍵基礎設施資通訊安全法制建構之重要性--以歐盟及德國智慧電表布建發展為例

智慧財產局修法賦予動植物專利權,但將不及繁殖物

  我國專利法修法後,將全面開放動植物專利,其中,最引起各界關注的問題是動植物專利權的效力。動植物專利的保護,有助於發展國內生技產業,但保護過度,又會影響農漁民生計,故智慧局在五月初發布之專利法部分條文修正草案中,增訂動、植物專利權利耗盡之範圍包括必然導致繁殖之專利生物材料本身及其所繁殖之生物材料,但不包括為繁殖之目的而使用該繁殖之生物材料之行為。   根據現行專利法第56條第1項規定,獲得動植物相關發明的物品專利權人,專有排除他人未經其同意而製造、為販賣的要約、販賣、使用或為上述目的而進口該物品之權。惟專利法第5條規定,專利物品本身經第一次販賣後,專利權效力及不於後續的實施行為。動植物的繁殖特性,如果一經販賣後,專利權效力即不及,則勢必影響動、植物發明人的權益。   基於上述理由,智慧局經參考歐盟生物技術發明指令第八條,於專利法部分條文修正草案中明訂動植物等生物材料之專利權耗盡範圍,另為了保護農民權益,此次專利法修正草案中亦特別明訂農民免責,使農民自專利權人或其授權人處取得受專利保護之植物繁殖材料,可將收穫後之種子在其農地上進行繁殖使用,而為專利權效力所不及。

美國參議員力推再生能源投資稅額扣抵法案

  為鼓勵再生能源科技研發之投入,並確保美國人民能持續享有穩定之電力供給來源,同時增加更多的工作需求機會,美國參議員相繼於今年10月31日和11月10日提出Make it in America Tax Credit Act, S. 1764和Storage Technology for Renewable and Green Energy(STORAGE) Act, S. 1845兩個再生能源投資稅額扣抵法案。   在當今清潔能源技術(clean energy technology)之研發重要性與日俱增的趨勢下,為活絡與刺激美國清潔能源製造產業的成長,美國參議員期待透過S.1764這項法案的通過,額外投注美金5億元於先進製造者稅額扣抵計畫(Advanced Manufacturers Tax Credit program),進而達成強化清潔能源產業發展之目的,同時提供美國境內相關產業市場更多工作機會。另外,為克服再生能源如太陽能和風力等發電方式所具有的不確定性(如風力未達可發電標準等),如何儲存此類綠色能源之技術研發乃為現今各界戮力強化的領域。為集結並鼓勵更多研發資源投注於能源儲存系統(energy storage systems)的研發,美國參議員乃進而提出STORAGE Act,提供以下兩項優惠措施,包括:1. 能源製造商於投入與電網相關之能源儲存系統研發時,得享有20%之投資稅額扣抵(investment tax credit, ITC),其最高上限為美金4億元;2. 裝設商業和家用儲存系統時,得享有30%的投資稅額扣抵,其最高上限為美金1百萬元。   儘管目前上述兩法案仍於美國參議院財政委員會(Senate Finance Committee)進行法案審查,然而在各界對於能源產業儲存技術之提升與促進產業發展的期盼、法案所能帶來更穩定的電力供給與有效儲存再生能源等誘因之下,委員會的審查結果確實已引起各界的關注與期待。

美國情報體系發布「情報體系運用人工智慧倫理架構」

  美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。

TOP