YOUTUBE遊戲頻道 - Rooster Teeth’s Let’s Play的建立者Lewis Turner近期擁有111部上傳遊戲剪輯並超過74890次瀏覽量,現被任天堂(NINTENDO)控訴侵害著作權。 任天堂依YOUTUBE的Content ID政策,向Lewis Turner主張凡運用任天堂遊戲剪輯而賺取收益的部分,一旦這些剪輯被識別包含Content ID所認定之完整或部分的內容,均被要求需支付獲利予任天堂。Content ID為YOUTUBE 的著作權政策,有助保護企業並控制相關影片上傳的內容,藉識別使用者上傳的相關影片(視訊或音訊)的內容,與著作權人提供的內容比對是否侵權的功能,進而採取預先選擇的處理方式,如:透過影片賺取收益或封鎖這類的影片。 許多玩家習慣將時下流行的遊戲闖關歷程上傳至社群網站與其他玩家分享,展現如何破解高難度關卡,或進階的闖關技巧,任天堂此舉,招來許多玩家的不滿,甚至表示再也不玩任天堂的遊戲或上傳更多的遊戲歷程剪輯。一名”Let’s play”玩家表示:「電動遊戲非如電影或電視;當我看到別人正在看的影片,我可能不會再去看;但當我看到別人正在玩的遊戲,我會想自己體驗。每個遊戲過程,都有其獨特視覺經驗,藉由瀏覽遊戲歷程能夠引起購買慾望。」 對此,任天堂則聲明,若是為了持續推動並確保為任天堂的遊戲,仍可透過社群平台分享,即玩家仍可繼續在YOUTUBE上分享任天堂的遊戲歷程;而非像對待娛樂公司一樣,阻止玩家使用任天堂智慧財產權(著作權)的原因。
日本發布新版「氫能基本戰略」,全面推動氫能產業發展日本經濟產業省召集的「氫能、燃料電池戰略協議會」(水素・燃料電池戦略協議会)於2023年6月6日發布2023年版的「氫能基本戰略」(水素基本戦略),此為日本於2017年首次提出「氫能基本戰略」後,依據近年國際社會2050淨零碳排之宣示,以及烏俄戰爭造成的能源供應危機等情勢變化,再次提出的新版氫能國家型戰略。 本戰略以一個S、三個E作為其氫能發展基本原則,即安全性(Safety)、能源保全(Energy Security)、經濟效益(Economic Efficiency)、環境(Environment);在確保使用安全性的前提下,期望透過發展氫能,實現「氫能社會」理想,兼顧能源供給穩定與經濟成長,同時對環境有所貢獻。基此,本戰略提出擴大氫供給、創造氫需求、建構大規模供應鏈、發展地區性氫能利用、推動技術革新、國際合作、促進國民理解等七項推動方向。 為強化氫產業競爭力,本戰略從製造、運輸、使用等三個面向著手,首先,確立2030年水電解裝置達15GW之目標,支援生產設備設置;其次,建置輸送管路等基礎設施,以降低運輸成本,並確保足夠的氫運輸船以供海上運輸使用;最後,於技術方面,加速燃料電池車、燃氫,以及以氫作為原料之製鋼、化學品製造等技術發展。 針對氫能安全性,則計畫擬定「氫能安全戰略」(水素保安戦略),從「氫安全性相關科學資料取得及共享」、「統一技術標準」、「第三方認證及技術機構之設立」、「人才培育」等面向,全面檢視並調整與氫供應鏈相關的法規範,以確保整體安全性。
金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。