從推動體系及法制架構思考我國文化創意產業發展之整合以南韓推動組織與法制架構為例

刊登期別
第21卷,第7期,2009年07月
 

※ 從推動體系及法制架構思考我國文化創意產業發展之整合以南韓推動組織與法制架構為例, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=3133&no=645&tp=1 (最後瀏覽日:2025/11/21)
引註此篇文章
你可能還會想看
美國發明法(Leahy-Smith America Invents Act, AIA)於今年(2013)3月16日全面生效

  美國發明法(Leahy-Smith America Invents Act, AIA)於今年度(2013)3月16日全面實施,係近年來美國專利制度的重要變革,茲就AIA第三階段生效的重點介紹如下:   1.專利權申請制度的變革   為促進美國專利制度與國際接軌、保障發明人權利,專利申請權歸屬將由原本的「先發明制」(First to Invent),改為發明人「先申請制」(First Inventor to File)。簡言之,是以「有效申請日」先後決定專利權歸屬。   2.新穎性標準的修改   修法後的新穎性標準係以「有效申請日」為斷。惟,新法仍保留新穎性寬限期(grace period)之規定,為避免採行「先申請制」而延宕發明技術公開之窘境,新法限縮申請人享有寬限行為的範圍,僅限於「發明人的公開行為」才不構成先前技術之公開。   上述兩項修法內容皆於3月16日正式生效。美國總統歐巴馬於2月的座談會中公開表示,AIA為其任內推動的重要修法,顯示政府欲藉由法制改革,打擊專利蟑螂濫訴的決心。

美國賓州眾議院通過《人工智慧生成內容揭露法》

美國賓州(Pennsylvania)眾議院於2024年4月10日通過《人工智慧生成內容的揭露法草案》(House Bill 1598 Disclosure of Artificially Intelligent Generated Content,下稱草案),規範AI生成內容及其利用行為以保護消費者。 草案規定,以AI生成之各種形式內容,在其首次呈現給消費者時應揭露資訊,使消費者知道該內容為AI生成之結果。如果明知或重大過失(Knowingly or recklessly)產出、散布或發布任何未「明確且顯著」(clear and conspicuous)揭露其內容為AI所生成者,即屬「不公平或欺騙性行為或做法」,將被依賓州《不公平貿易行為與消費者保護法》(Unfair Trade Practices And Consumer Protection Law)規定處罰。草案亦說明應如何揭露資訊,方符合條文所謂「明確且顯著」標準,例如針對AI生成之音訊內容,其揭露應以足夠的音量和節奏傳達,以便消費者聽取和理解。 此外,草案也關注兒童保護問題。鑑於AI生成的兒童性剝削圖像通報日益增加,草案最後新增規定,未來不能將「兒童性剝削圖像為AI生成」作為辯護理由,且檢察總長或地區檢察官可起訴製造、持有以及傳播AI生成之兒童色情或性虐待素材等相關行為。 目前草案已在州眾議院通過,由州參議院審議中。草案的提案議員強調,人們有權知道其消費的內容實際上是使用AI產出的成果,因此草案通過後,可望有效遏阻濫用AI的行為,提供賓州民眾更多的保障。

何謂「商標名稱通用化」?

  商標具有表彰商品來源之功能,其設計為配合商品特色而具有識別性。商標註冊後,若不具有識別及表彰商品來源之特徵,而失去商標應有之基本功能,依據商標法第63條第4款,不具識別性之商標,無法主張商標專用之權利。商標名稱通用化,即是指原本具有識別性之商標,通常為著名商標,因為社會大眾消費習慣以及認知的改變,變成商品的通用名稱,此時即認該商標失去識別性,失去法律保護。   商標名稱通用化形成之原因不一,可能是企業經營者設計商標時,有意使用社會大眾熟悉之名稱作為商標,也有可能非商標權利人自己故意造成,特別是著名商標,容易流於通用化。例如,「可樂(cola)」一詞由可口可樂(coca cola)公司率先註冊使用,但於消費者心目中已成為特定碳酸飲料之名稱,則不得由可口可樂公司獨占使用;又如火柴盒玩具汽車,為火柴盒大小包裝之玩具,企業經營者以 matchbox 作為該玩具的文字商標,但美國聯邦最高法院認為matchbox屬於該商品之通用名稱,否認其商標權。   實務上判斷商標名稱通用化,以該商標名稱在一般消費者心目中認識的主要意義為標準。一個經過市場行銷之註冊商標名稱,若在消費者心目中屬於商品通用名稱,而非特定商品來源,則表示該商標名稱已不具備商標功能,不受法律保護。

美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

TOP