2021年4月26日,歐盟商標協會(European Communities Trade Mark Association,以下簡稱ECTA)針對3D列印設計保護修法方向,向歐盟提交一份立場意見書(position paper)。歐盟自1998年發布《設計指令》(Directive 98/71/EC on the legal protection of designs)及2002年發布《設計規則》(Council Regulation(EC) No 6/2002 on Community designs)以來,已多年未進行修正;為了能對設計提供更有效的法律保護,歐盟從2018年起開始進行修法的公眾諮詢,並於2020年11月提出修法評估報告。
ECTA一直以來都很關注3D列印技術發展涉及的智慧財產議題,在意見書中列出了修法時應納入評估的重點。例如ECTA指出,雖然3D列印所使用的CAD模型檔案僅是列印過程中的媒介,檔案本身不能受到設計法律的保護,但檔案中包含了設計藍圖及其設計特徵,為了讓以數位形式呈現的設計能受到保護,建議應考慮修改《設計規則》第3條(b)及《設計指令》第1條(b)中對於產品(product)的定義,將CAD模型檔案及其他任何含有以數位形式呈現設計的物件(items)也納入產品的定義之中。
其次,ECTA認為應針對任何明知有侵權事實,但仍提供幫助的行為人課予輔助侵權責任(contributory infringement),以提供設計權人更有效的武器來捍衛自身權利。如行為人未經設計權人同意,自行利用3D儀器掃描物體,根據所得數據製作成CAD模型檔案,並將該CAD模型檔案提供給直接侵權人時,應成立輔助侵權。
最後,ECTA認為目前沒有針對3D列印技術制定專法的必要,僅需要在現行智財法律體系中進行修法調整即可,以避免法律體系過於複雜。
為強化並有效因應網路安全相關議題,美國總統歐巴馬日前於4月10日提出在2014財政年度(於2013年10月開始起算)增加強化網路安全經費之建議,期待透過藉由加強並建置相關網路安全機制的方式,有效解決目前美國所面臨來自中國、伊朗、俄國、以及其他國家之的網路安全威脅;同時,其亦希望藉此厚植並改善美國政府,以及私人企業的電腦網絡防禦能力。 本次由美國總統歐巴馬所提出的國家網路安全策略主要可區分為二部分:1. 加強美國網路事件(cyber incidents)的彈性度,以及2. 減少網路威脅事件。首先針對加強美國網路事件彈性度的部份,主要會透過a. 強化美國數位基礎建設,進而能有效抵禦滲透和干擾,b. 改善美國對於複雜和敏捷的網路威脅防禦能力,以及c. 培養針對不同類型的網路事件,皆能快速應變並恢復的能力,這三個方法來加以落實。而就減少網路威脅事件的部份,則計畫以透過a. 與美國友邦結盟的方式,共同研議國際網路規範,b. 強化網路犯罪的法律執行能力,和c. 遏止潛在對手就現有之美國網路漏洞採取不當行動,三個策略模式的實施來加以實踐。然而除了上述的兩個策略及其子項的具體落實外,美國政府亦強調串連各政府部門,以及私人企業團體間之合作重要性,以及建立一個能夠使得網路維護人員及其他相關人員,得以快速取得相關網路安全資訊的便捷管道亦為重要。 隨著全球資通訊網路交流互動以及依賴程度日益增長,如何有效兼顧個人網路安全隱私及使用自由,並同時確保網路資訊流通的安全性,乃為目前強加網路安全的重要關注焦點。本次美國總統歐巴馬所提出的網路安全推動策略走向,及其如何加以落實,實值得持續關注。
南韓個人資料保護委員會宣布通過修訂個人資料保護法施行法2024年3月6日,南韓個資保護委員會(Personal Information Protection Commission, PIPC)宣布通過個人資料保護法施行法(Enforcement Decree of the Personal Information Protection Act, PIPA Enforcement Decree)修正案,並於2024年3月15日正式實行。 本次修法重點如下: 1.明訂個資主體可要求公開自動化決策過程之權利及應對不利結果時可採取之措施 針對使用AI等自動化系統處理個資並做出的自動化決策,個資主體(即,個人)有權要求解釋決策過程並進行審查,尤其當決策結果對個資主體權益有重大影響時(例如:不通過其社福補助申請),個資主體可拒絕自動化決策結果,並要求改為人為決策及告知重新決策結果。另為確保透明、公平,自動化決策依據的標準與程序亦須公開,並於必要時向公眾說明決策過程。 2.確立隱私長(Chief Privacy Officers, CPOs)的資格要求及適用範圍 為確保CPO能順利開展個資保護工作,要求處理大量或敏感個資機關之CPO至少具有4年個資、資安相關經驗,且個資經驗至少2年。適用機關包括:年營業額達1,500億韓元以上、處理超過100萬人個資或超過5萬人特種資料者;學生超過2萬人的大學;處理大量特種個資的教學醫院或大型私人醫院等;疾管局、社福、交通、環保等公共系統運營機構。 3.明訂評估公共機構個資保護效能之標準及程序 依據個資法第11-2條規定,PIPC每年需對公共機構(如:中央行政機關及其所屬機關、地方政府及總統令規定者)進行個資保護程度評估,而為使評估作業有所依循,本次新增評估標準及相關程序包括:政策和業務表現及其改進情形、管理體系適當性、保護個資措施及執行情形、防範個資侵害及確保安全性措施及執行情形等。 4.調整需要承擔損害賠償責任的適用範圍及門檻 為確保機關履行個資主體損害賠償責任,將需履行投保保險等義務之適用範圍由網路業者擴大至實體店面及公共機構等。同時,調整適用門檻,將年銷售額由5千萬韓元調整為10億韓元、個資主體數由1千人調整為1萬人,以減輕小型企業負擔。另亦明訂可豁免責任的對象包括:不符合CPO資格的公共機構,公益法人或非營利組織,及已委託給已投保保險之專業機構的小型企業。 PIPC另將公布一份指引草案,內容包括自動決策權利、CPO資格要求、公共機構個資保護評估標準、賠償責任保障制度等,並舉行說明會來收集回饋意見。
美國地方法院以缺乏原創性為由駁回對泰勒絲歌詞的侵權訴訟2016年9月,詞曲創作者Sean Hall及音樂公司代表Nathan Butler提出著作權侵權訴訟,控訴泰勒絲2014年單曲【Shake it off】中「Playas, they gonna play / And haters, they gonna hate」的詞彙使用方法抄襲了2001年所錄製的【Playas Gon'Play】,主張在2001年前這種特定角色加上特定動作的重覆出現組合,並未於任何流行文化中所使用。 由於原告僅以歌詞部分進行侵權訴訟,美國聯邦地區法院法官不需專家或陪審團意見即可進行判決。法官Michael Fitzgerald以「平庸(banal)」一詞形容原告所提出的詞彙組合,駁回該訴訟,並表示被控侵權的泰勒絲歌詞內容部分為短語(short phrases),缺乏著作權法所保護的原始性及創作性,且「Playas gonna play / haters gonna hate」所展現的創作性和「鼓手會打鼓/游泳者會游泳」沒什麼兩樣。因此,除非【Shake it off】中有其他音樂元素可能值得聲稱侵權,法院願意給予原告機會修改聲明,進行上訴。此外,法院提出其它理由:「Playas+play」這樣的詞彙組合早於1977年單曲【Dreams】中「Players only love you when they’re playing」就曾被使用過,且「Playas」一詞也曾用於1990年年代做為R&B樂團的團名。 這不是【Shake it off】第一次遭逢侵權訴訟,2015年Jessie Braham指控【Shake it off】侵犯其於2013年發行的單曲【Haters Gone Hate】,並求償4,200萬美元。但由於原告並未提供足夠證據,該案亦遭駁回。
金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。