歐盟將開發一套適用於全歐盟的權利登記系統,促使數位館藏的授權可以在一個透明且價格合理的機制下進行

  德國總理Angela Merkel在日前舉辦的法蘭克福書展中強調,反對在google在未釐清相關權利與建置對應的配套機制下,擅自將圖書典藏掃描數位化的作法。而不只德國反對Google的數位圖書計畫,歐盟執委會也在10月19日通過提案,要求歐盟正視圖書館藏數位化的智慧財產權議題,提案委員也督促歐盟應儘快採取行動,配合歐盟著作權法體系,發展更具競爭力的歐盟館藏數位化方案。

 

  然在館藏書籍數位化的過程中,有必要先解決孤兒著作(verwaiste Werke)因著作人不明而無法進行數位化及授權的困境。據估計,英國圖書館館藏就有40%屬於孤兒著作。為找出一套簡易的授權機制,並建立歐盟各國針對孤兒著作共通的認定標準,歐盟在eContent Plus計畫架構下,於2008年11月便開始所謂「ARROW行動方案(Accessible Registries of Rights Information and Orphan Works)」,希望透過各國圖書館、著作權集體管理團體、出版商間的參與,整合歐盟境內不同的權利登記機制,共同開發出一套適用於全歐盟的權利登記系統,清楚顯示歐盟境內各種著作的權利狀態,促使數位館藏的授權可以在一個透明且價格合理的機制下進行,同時確保著作人可以得到適當的報酬。

 

  有關歐盟針對圖書數位化的政策與討論,以及google數位圖書協議後續協商的結果,仍有待持續追蹤觀察。

相關連結
※ 歐盟將開發一套適用於全歐盟的權利登記系統,促使數位館藏的授權可以在一個透明且價格合理的機制下進行, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=3177&no=64&tp=1 (最後瀏覽日:2026/02/24)
引註此篇文章
你可能還會想看
客戶機密資料外洩事件頻傳 美國AT&T 8月底也被駭

  美國資安事件頻傳,美國 8/30 驚傳電信及電報公司( AT & T )購物網站中之顧客消費資料遭駭客竊取事件。 AT & T 發言人表示工程師在發現異狀後一個小時內關閉該網站並已採取相關保護措施,據 AT & T 估計約 1 萬 9 千名在該網頁上以信用卡消費的顧客機密資料已外流,目前該公司正進行通知客戶之動作,並聯繫相關信用卡公司,期能將對顧客之損害降至最低。   AT & T 通知當事人之作法,符合美國立法之趨勢。目前美國除了部分州已經通過立法要求資料持有業者必須將資料外洩事件告知當事人外,今年 7 月 19 日 Virginia 州議員 Thomas Davis 亦提出美國聯邦法典第 44 編( title 44 )修正提案,該提案通過後將強化美國聯邦法典中對於個人資料外洩時資料收集者之告知義務,以避免當事人因此蒙受損失。   雖然法規要求漸趨嚴格、完整,但長期關注隱私權問題之 Privacy Rights Clearinghouse 估計,美國自去年 2 月起至今年 8 月底止,約有 9100 萬人次之機密資料遭到竊取,換言之,約 1/3 的美國人機密資料曾遭竊取或外洩,網際網路與駭客技術的發展使得機密資料今日已不再機密了。

首件由好萊塢電影公司共同對網路空間(cyberlocker)業者提起著作權侵害之訴

  迪士尼、20世紀福克斯、環球影城、哥倫比亞和華納兄弟於2011年2月向美國佛羅里達州南部法院起訴,控告Hotfile網站非法、大規模侵害其享有的著作權。美國電影協會(the Motion Picture Association of America, MPAA)於新聞稿中聲明,Hotfile以數位方式大規模的侵害他人著作權,而其經營人亦未馬上有效處理該侵權爭議。   Hotfile係近二年來提供電腦檔案寄存最熱門的網路空間(cyberlocker)服務業者之一,主要的業務在提供民眾一藏塞夾(stash box)儲存其私人影片。網路空間(cyberlocker)服務業者擁有龐大的儲存設備,並提供有限上傳檔案空間、檔案寄存時間及下載速度之免費服務,為雲端服務之一種形式,其主要收入是廣告或用戶付費,以維持營運。跟BitTorrent不同的是,cyberlocker無需下載任何軟體即可資訊共享,用戶只要上cyberlocker網站即可直接觀賞影片或電視節目。   MPAA在聲明中表示,Hotfile以支付費用之獎勵方式,鼓勵其會員上傳並散布受著作權保護之最熱門的電影或電視節目到Hotfile網站,任何人均可透過網路連結,到Hotfile網站下載受著作權保護之電影或電視節目。Hotfile並向下載該電影或電視節目之會員收取費用,卻未向所上述電影公司支付任何費用。原告(電影公司)因此對被告Hotfile訴請損害賠償及禁制令。   Hotfile提供上傳空間的網站用戶和流量近幾個月迅速增加,但該網站是否會因為原告(電影公司)向法院訴請損賠及禁制令,而支付巨額賠款或停止網路服務,則需視該案訴訟之發展情況。

金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。

美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見

  美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。   依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。   依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。   此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。   最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。

TOP