新近奈米科技智財法制之發展趨勢

刊登期別
第19卷,第5期,2007年05月
 

本文為「經濟部產業技術司科技專案成果」

※ 新近奈米科技智財法制之發展趨勢, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2299&no=0&tp=1 (最後瀏覽日:2026/01/23)
引註此篇文章
你可能還會想看
德國與愛爾蘭對於個人資料處理是否須明示同意之見解不同

  德國與愛爾蘭資料保護局對於資料保護指令所規定個人資料(以下簡稱個資)的處理(process),是否須取得資料當事人明示同意,表示不同的見解。德國資料保護局認為臉書網站所提供之人臉辨識(預設加入)選擇退出(opt out consent)的設定,並不符合資料保護指令(Data Protection Directive)對於同意(consent)的規範,且有違資訊自主權(self-determination);然而,愛爾蘭資料保護局則認為選擇退出的機制並未牴觸資料保護指令。   德國資料保護局委員Johannes Caspar教授表示,預設同意蒐集、使用與揭露,再讓資料當事人可選擇取消預設的作法,其實已經違反資訊自主權(self-determination)。並主張當以當事人同意作為個人資料處理之法律依據時,必須取得資料當事人對其個資處理(processing)之明示同意(explicit consent)。對於部長理事會(Council of Ministers)認同倘資料當事人未表達歧見(unambiguous),則企業或組織即可處理其個人資料的見解,Caspar教授亦無法予以苟同。他認為部長理事會的建議,不但與目前正在修訂的歐盟資料保護規則草案不符,更是有違現行個資保護指令的規定。   有學者認為「同意」一詞雖然不是非常抽象的法律概念,但也不是絕對客觀的概念,尤其是將「同意」單獨分開來看的時候,結果可能不太一樣;對於「同意」的理解,可能受到其他因素,特別文化和社會整體,的影響,上述德國和愛爾蘭資料保護局之意見分歧即為最好案例。   對於同意(consent)的落實是否總是須由資料當事人之明示同意,為近來資料保護規則草案(The Proposed EU General Data Protection Regulation)增修時受熱烈討論的核心議題。資料保護規則草案即將成為歐盟會員國一致適用的規則,應減少分歧,然而對於企業來說,仍需要正視即將實施的規則有解釋不一致的情況,這也是目前討論資料保護規則草案時所面臨的難題之一。

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

美國通過《地理空間資料法》,明確化地理空間資料管理

  美國於2018年10月5日,通過《2018年地理空間資料法》(Geospatial Data Act of 2018,下稱《GDA 2018》),並編列入《2018年美國聯邦航空總署重新授權法案》(Federal Aviation Administration Reauthorization Act of 2018)。該法是接續《2017年地理空間資料法》(Geospatial Data Act of 2017,下稱《GDA 2017》),做出進一步的調整。   《GDA 2017》的核心目標就是要根本性地重整管轄權,以順利發展「國家空間資料基礎建設」(National Spatial Data Infrastructure)。要點如下: 原先美國有許多管轄的地理空間資料旁枝機構,工作重疊性高、權責不清,《GDA 2017》指定「聯邦地理空間資料委員會」(Federal Geographic Data Committee, FGDC)作為權責機關,並管理國家空間資料資產(National Geospatial Data Asset)。 指定「國家地理空間資料諮詢委員會」(National Geospatial Advisory Committee, NGAC),提供FGDC建議並進行監督。 擴充「地理空間資料」的定義,把所有量測(Survey)和製圖(Mapping)成果解釋成地理空間資料(Geospatial Data)。   《GDA 2018》進一步提出規範,明確化地理空間資料管理: 回饋報告 要求執行與地理空間相關計畫的聯邦單位,提供年度報告;並要求聯邦地理空間資料委員會(FGDC)按《GDA 2017》所列的職責,對於所有相關單位進行評估報告。這些評估報告會提交給國家地理空間資料諮詢委員會(NGAC)寫成報告,在兩年內提供給國會。 國家空間資料基礎建設 明確設立兩個目標:第一個目標是地理空間資料的隱私管理和安全性保障;第二個目標則是建置全球空間資料基礎建設。 國家空間資料資產 希望FGDC會能夠就各個主題指定專責機構進行管理。

韓國最高法院判決以虛擬貨幣買賣現金之交易為合法

  韓國最高法院於2010年1月10日,針對一項以線上遊戲貨幣換取現金所構成之刑事案件做出最終判決,認定此一行為並不違反韓國遊戲產業振興法施行令第18條 之3之禁止交易規定,從而不構成犯罪。   本案事實為兩名知名線上遊戲「天堂」(Lineage)之玩家陸續於2007-2008年間,以其於該遊戲中所購得,約值2億3千4百萬韓圜之虛擬貨幣「天幣」(Aden),陸續轉賣給其他約2000位遊戲玩家,以賺取價差。該案於2008年經釜山檢察廳依違反遊戲產業振興法施行令起訴,並聲請簡易判決後,兩名玩家分別被處以5百萬及3百萬韓圜之罰金。經兩名玩家提起正式裁判請求後,釜山地方法院仍維持簡易判決之結果,僅將罰金降至4百萬及2百萬韓圜。兩名玩家仍以不服判決為理由上訴至釜山高等法院。於此一上訴審中,釜山高等法院即以該交易所使用之虛擬貨幣並非來自於線上賭博遊戲或其他射悻性之途徑,故不違反韓國遊戲產業振興法施行令第18條 之3之規定,改判兩名玩家無罪。就此一上訴審判決,檢察廳另以該知名線上遊戲仍帶有諸多射悻或運氣成分,從而其取得虛擬貨幣之方式與賭博遊戲相似為理由,向最高法院提起上訴;唯最高法院認釜山高等法院之判決認事用法並無違誤,從而駁回檢察廳上訴,本案判決確定。   對於此一判決,各方反應並不一致。於最高法院判決出爐後,韓國文化觀光體育部即發表正式聲明,表示此一無罪判決係基於法院認定本案缺乏相關認定「不正常遊戲管道」是否存在之證據,而並非一律認定虛擬貨幣與現金之間的買賣或兌換交易均為合法。但一般遊戲產業界均認為,此一判決之作成確實開啟了線上遊戲中另一種獲利市場之可能性。如再配合2009年9月韓國法院所作成對於線上遊戲中的虛擬貨幣交易須課徵10%加值稅的判決進行觀察,則此種交易方式是否會對於韓國整體遊戲產業發生結構性之重大影響,應值得期待。

TOP