尹官石(Youn, Kwan-Suk)等11位韓國國會議員於2013年7月16日提出著作權法修正案,修法內容包括「導入著作權專門士及資格考試等制度」、「增訂著作權保護院設立之法源依據及相關業務規定」、「著作權保護院之審議委員會之組成」、「審議及發出糾正命令之主體變更為著作權保護院」。
韓國國會議員尹官石指出,雖然韓國著作權產業規模逐漸擴大,但據統計,著作權專業人才僅1萬3533位,專業人才明顯仍然不足。再者,著作權小規模訴訟也不斷增加。另外,現在雖有營運核發著作權相關資格證書業務之民間業者,但卻存在廣告誇大、課程內容不實,缺乏事後管理機制等問題,而造成市場混亂。為解決上述問題,韓國著作權法擬導入著作權專業人員之國家資格證照制度,希望藉以有效培育著作權專業人才,讓著作權產業得以健全發展。
另一方面,影視內容和電腦軟體為韓國著作權產業之核心,其所創造之附加價值及就業機會均呈現增加的趨勢,但相對來說,韓國音樂、電影、電視劇等內容常被非法重製,而這樣的非法重製行為造成3兆9758億韓圜之生產利益損失,減少3萬6千個就業機會。對此,為更有效推動著作權保護,並使著作權保護業務推動一元化,藉以促進文化內容產業發展,著作權法擬修法整併現有的著作權保護中心和韓國著作權委員會之功能,改設著作權保護院,以統合著作權保護業務。
在此一著作權法修正案之後,韓國文化體育觀光部及其它議員亦對其它著作權議題,如擴大著作權保護及合理使用範圍等,提出修正案,因此後續韓國著作權法的修法動態,值得持續關注。
內閣官房副長官於2019年12月18日召集國土交通省、警察廳、經濟產業省、防衛省等相關主管機關,召開第9次「小型無人機相關府省廳聯絡會議」(小型無人機に関する関係府省庁連絡会議),並決議由內閣於2020年向國會提交《小型無人機於重要設施周邊地區上空飛行禁止法》(重要施設の周辺地域の上空における小型無人機等の飛行の禁止に関する法律,以下簡稱「小型無人機等飛行禁止法」)修正案,將重要國際機場及其周邊地區列為小型無人機的永久禁航區。 《小型無人機等飛行禁止法》之目的係禁止小型無人機於國家重要設施上空飛行,以防患於未然,並維護國政中樞機能和良好國際關係,以及確保公共安全。依該法第2條、第9條第1項之規定,小型無人機之禁航區域包含國會議事堂、內閣總理大臣官邸、其他國家重要設施等、外國領事館等、國防相關設施和核能電廠,以及設施周邊經指定之地區。 而在機場部分,為預防危險並確保大會能順利準備及營運,日本已透過《世界盃橄欖球賽特別措施法》(ラグビーW杯特措法)及《東京奧運暨帕運特別措施法》(東京五輪・パラリンピック特措法),將國土交通大臣指定之機場及其周圍300米地區增列為小型無人機禁航區,但僅為大會期間的暫時性措施。內閣考量小型無人機之飛行可能會影響機場功能運行,甚至對經濟帶來重大不良影響,欲透過《小型無人機等飛行禁止法》修正案,將該暫時性措施改為永久措施。
因應2020年社會實現自動駕駛,日本訂定自動駕駛制度整備大綱日本IT綜合戰略本部及官民資料活用推進本部於4月17日公佈「自動駕駛制度整備大綱」。大綱設定2020年至2025年間,日本社會實現自動駕駛下,所需檢討修正之關連法制度。 本大綱中,係以2020年實現自動駕駛至等級4為前提(限定場所、速度、時間等一定條件下為前提,系統獨自自動駕駛之情形),以在高速公路及部分地區之道路實現為條件設定。社會實現自動駕駛有以下課題需克服: 道路交通環境的整備:以自駕系統為行駛,一般道路因為環境複雜,常有無法預期狀況發生,導致自駕車的電腦系統無法對應。 確保整體的安全性:依據技術程度,設定一般車也能適用之行駛環境、設定車輛、自動駕駛之行駛環境條件以及人之互相配合,以達成與一般車相同之安全程度為方針下,由關係省廳間為合作,擬定客觀之指標。此一指標,並非全國一致,應就地方之特性,設定符合安全基準及自動駕駛行駛環境條件,建構整體確保安全之體制。 防止過度信賴自駕系統:訂定安全基準,使日本事件最先端自動車技術擴及於世界,訂定包含自駕系統安全性、網路安全等自動駕駛安全性要件指針。 事故發生時之法律責任:自動駕駛其相關人為駕駛人、系統製造商、道路管理者等多方面,其法律責任相對複雜化。現在係以被害人救濟觀點,至等級4為止之自動駕駛,適用自動車損害賠償責任險(強制責任險)方式,但是民法、刑法及行政法等法律全體之對應,仍為今後之課題,必須為早期快速處理。為了強化民事責任求償權行使、明確刑事責任之因果關係、並實現車輛安全性確保、避免所有人過度負擔等,車輛行駛紀錄器之裝置義務化、事故原因究明機制等,關係機關應合作為制度檢討。 本大綱最後並提出,在自動駕駛技術快速發展下,就其發展實際狀況應為持續半年1次召開會議檢討檢討。
因應使用「生成式AI(Generative AI)」工具的營業秘密管理強化建議2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)