歐盟將開發一套適用於全歐盟的權利登記系統,促使數位館藏的授權可以在一個透明且價格合理的機制下進行

  德國總理Angela Merkel在日前舉辦的法蘭克福書展中強調,反對在google在未釐清相關權利與建置對應的配套機制下,擅自將圖書典藏掃描數位化的作法。而不只德國反對Google的數位圖書計畫,歐盟執委會也在10月19日通過提案,要求歐盟正視圖書館藏數位化的智慧財產權議題,提案委員也督促歐盟應儘快採取行動,配合歐盟著作權法體系,發展更具競爭力的歐盟館藏數位化方案。

 

  然在館藏書籍數位化的過程中,有必要先解決孤兒著作(verwaiste Werke)因著作人不明而無法進行數位化及授權的困境。據估計,英國圖書館館藏就有40%屬於孤兒著作。為找出一套簡易的授權機制,並建立歐盟各國針對孤兒著作共通的認定標準,歐盟在eContent Plus計畫架構下,於2008年11月便開始所謂「ARROW行動方案(Accessible Registries of Rights Information and Orphan Works)」,希望透過各國圖書館、著作權集體管理團體、出版商間的參與,整合歐盟境內不同的權利登記機制,共同開發出一套適用於全歐盟的權利登記系統,清楚顯示歐盟境內各種著作的權利狀態,促使數位館藏的授權可以在一個透明且價格合理的機制下進行,同時確保著作人可以得到適當的報酬。

 

  有關歐盟針對圖書數位化的政策與討論,以及google數位圖書協議後續協商的結果,仍有待持續追蹤觀察。

相關連結
※ 歐盟將開發一套適用於全歐盟的權利登記系統,促使數位館藏的授權可以在一個透明且價格合理的機制下進行, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=3177&no=64&tp=1 (最後瀏覽日:2025/11/09)
引註此篇文章
你可能還會想看
美國公布「保護資通訊技術與服務供應鏈安全」行政命令

  美國總統川普於2019年5月依據「國際緊急經濟權力法」(International Emergency Economic Powers Act, IEEPA)之授權,訂定「保護資通訊技術與服務供應鏈安全」行政命令(Executive Order on Securing the Information and Communications Technology and Services Supply Chain)。目的係為避免因具有競爭關係之外國政府或機構,利用其設計、開發或製造之資通訊技術或相關服務之資安漏洞進行資料竊取或網路攻擊等行為。   川普總統認為,如未能對於相關之資通訊技術、產品或服務進行管制,將有提升美國資安風險之疑慮,進而對美國之國家安全、外交政策及經濟構成威脅,故應針對具有競爭關係之外國政府或機構所提供的相關資訊與通訊技術或服務,進行下列相關之措施: 禁止美國境內之相關單位(包含合夥、協會、信託等機構、合資企業、公司、集團或其他組織)取得、進口、轉讓、安裝、交易或使用具有資安風險而由競爭關係之外國政府或機構所擁有、控制、設計、開發、製造或供應的資通訊技術或服務。 授權由商務部長訂定具有競爭關係之外國政府或機構、資通訊技術或服務及上述禁止措施之相關認定標準及程序。 商務部長應與國務卿向國會提交本命令之經常性及最終報告;而國家情報總監及國土安全部,則應持續針對美國所面臨之相關風險威脅進行定期之識別與評估,並將評估內容提交予總統。

歐盟發布《個資侵害通知範例指引》說明個資侵害案例解析以利個資事故因應

  歐洲資料保護委員會(European Data Protection Board, EDPB)於2021年1月18日發布《個資侵害通知範例指引》(Guidelines 01/2021 on Examples regarding Data Breach Notification)草案,並進行為期六週之公眾諮詢。該指引針對2017年10月所發布之《個資侵害通知指引》(Guidelines on Personal data breach notification under Regulation 2016/679)透過案例分析進行補充說明,對於資料控制者如何識別侵害類別以及評估風險提出更詳細的實務建議,協助資料控制者處理資料外洩及風險評估考量因素之認定。   個資侵害係指違反安全性規定而導致傳輸、儲存或以其他方式處理之個資,遭意外或非法破壞、遺失、變更、未獲授權之揭露或近用之情形,由於個資事故將對資料主體可能造成重大不利影響,該指引首先要求資料控制者進行侵害類別之辨識,依據2017年指引將個資侵害分為機密性侵害(confidentiality breach)、完整性侵害(integrity breach)以及可用性侵害(availability breach)。而資料控制者最重要的義務在於主動識別系統漏洞,評估侵害對資料主體權利所產生之風險,制定適當計畫及程序採取適當因應措施,確定侵害事件之問題根因及安全漏洞,加強員工認知培訓及制定操作手冊,並確實記錄各項侵害行為,以提升個資事故因應效率及降低時間延誤。   此外,該指引彙整自GDPR實施以來個資侵害通知具體案例,分為勒索軟體攻擊、資料外洩攻擊、內部人為風險、硬體設備或紙本檔案失竊、誤發郵件以及電子郵件內容外洩,共六大主題十八件案例,針對不同程度風險提供最典型的正確及錯誤作法,並提出資料控制者有關預防潛在攻擊及減輕影響之措施建議。

英國公布「調查權法草案」(Investigatory Powers Bill)

  英國內政部(Home Office)於2015年11月4日公布一項關於網路監管的「調查權法草案」(Draft Investigatory Powers Bill),其主要目的係為提供執法、國安及情治單位,如英國安全局(MI5)、秘密情報局(MI6)、英國政府通訊總部(GCHQ)對於資通訊內容之掌控能力,用以因應數位時代不斷升高的維安需求,例如防止恐怖攻擊、兒童性剝削、破解跨國犯罪集團、協尋失蹤人口、犯罪現場之定位及嫌疑人相關聯繫對象等,該草案一旦通過,將迫使網路及電信服務業者保留其客戶之通訊數據、瀏覽記錄長達一年,甚至在必要情況下,協助英國政府攔截通訊數據、破解加密訊息。   其條文共計202條,分為九部分,對於通訊數據調查權行使所採取之主要手段包含攔截通訊(Interception)、數據監看(Oversight)、以設備干擾連結(Equipment Interference)、大量蒐集個人通訊資料(Bulk Powers)等,由於法案將擴張英國政府對網路隱私之干涉,對此內政大臣Theresa May表示,新法對於瀏覽記錄著重於使用者到訪過哪些網站,而非其瀏覽過的每一個網頁,同時,對於某些握有他人敏感資料的職業,例如醫生、律師、記者、國會議員及神職人員等,擁有較多的保護。   此外,草案亦闡明將建立政府自我監督及防濫權機制,包含未來將創設調查權利委員(Investigatory Powers Commissioner,簡稱IPC)專責監督政府調查權之行使,以及一套稱為Double Lock的新制度,即前述攔截數據資料權之行使,須有內政大臣親自核發之令狀,且該令狀應獲得司法委員(Judicial Commissioner)之批准。   這項草案無疑將引來公益與私利間之衝突,也在資通訊業界造成極大的反彈,縱然「調查權法案」並未限制相關電信與網路業者不得對其服務加密,卻要求於必要情況下提供解密協助,然而目前許多通訊服務採「點對點加密」(End-to-End Encryption)技術,若非發送及接收兩端之人,即便是提供該服務之公司也無法解密,一旦草案通過,類似WhatsApp或Apple所開發之iMessage將如何在英國使用,將會是未來觀測的重點。

歐盟提出人工智慧法律調和規則草案

  歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。   歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。   本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。   AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。

TOP