由於數位環境下,歐盟著作權法架構在著作跨境使用上仍有不明確之處,因此歐執會於2016/09/14公布「歐盟單一數位市場之著作權指令」法案(Proposition de DIRECTIVE DU PARLEMENT EUROPÉEN ET DU CONSEIL sur le droit d’auteur dans le marché unique numérique)。法案產生背景是因為擬藉由此法案補充現行歐盟著作權規範架構之不足。
此法案涉及三大重點議題,包括:網路著作內容之跨境取得、歐盟著作權規則如何在數位及跨國環境下運作、以及歐盟著作權市場運作。
因應作品新型式數位使用及具跨境使用性質,法案對於科學研究上資料探索(la fouille de textes et de données)、以教育為目的使用及為文化遺產保存使用,於網路跨境使用上,賦予著作權法跨境使用例外。
其次,為便利VOD平台取得影視著作之授權使用,此法案要求會員國設立授權協商機制,由公正第三方,就數位著作授權,提供權利人及平台諮詢業務。又為簡化數位新聞出版品之授權,確保出版者對數位新聞業之投資,法案承認數位新聞出版者為著作鄰接權人。也就是說,針對新聞作品數位使用上,賦予數位新聞出版者重製權及公眾提供權(le droit de mise à disposition)。
另外為確保著作權授權市場運作,明定網路儲存及連接服務業者(ISP)雖可主張第三人免責規定,但仍負有採取適當及合比例性措施來保護網路著作權之義務;同時,要求授權作品(包含權利移轉)之事後使用資訊需透明化,若有權利金與使用收益比例不當之情形,會員國需有補償機制之救濟並提供替代性爭端解決機制,希望藉由促進著作經濟價值的正確評估,加強對著作人及表演人之保護。
簡而言之,指令目的在擴大歐盟內部使用接近(近用)受著作權保護之網路作品機會,促進受著作權保護作品得以跨境使用於教育、研究及文化保存,以確保數位著作權市場運作效益。
法案將依據歐盟立法程序分送歐盟議會及理事會審查。
本文同步刊登於TIPS網站(https://www.tips.org.tw)
2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。
日本政府內閣於今年3月提出個人資料保護法修正草案為因應2016年正式上路實施之社會保障與納稅人識別號碼制度(社会保障・税番号制度)對於個人資料保護所產生之影響,日本政府內閣於2015年3月10日於國會提出個人情報保護法之修正案。 此次修正案主要分有六大重點,包含個資定義擴充與明確化、確保個資文件內容之正確性、強化個資保護規範內容、設立個人情報保護委員會、個資情報處理全球化,以及其他修正事項如未得當事人同意之第三人使用個資條件嚴格化等。 其中主要有兩項係與社會保障與納稅人識別號碼制度相關。首先是強化個資保護規範內容部分,由於社會保障與納稅人識別號碼制度將遇有個資資料庫使用情況,故新增個資資料庫之相關規範與罰則,行為人於未經授權或不當使用個資資料庫時,將可處1年以下拘役併科日幣50萬元以下之罰金,亦即當行為人違反個資法有關個資資料庫規定時,不但須支付罰金也須負刑事責任。 其次,擬設立直屬內閣總理大臣所轄之個人情報保護委員會,其委員組成人選須經參眾兩議院同意後,由內閣總理大臣任命之。委員會主要任務在於專責監督與監測政府各機關以及民間個資處理事業對於個資的傳遞、處理,並適時提出指導意見或建言。
日本個人資料保護委員會發布「禁止不當利用」與「停止利用」論點資料作為將來發布指引參考日本為因應去年6月通過「個人資料保護法」之修正(下稱「新法」),個人資料保護委員會於2021年2月19日第166次會議議題「禁止不當利用與停止利用之完備指引論點」(改正法に関連するガイドライン等の整備に向けた論点について(不適正利用の禁止・利用停止等)),公開兩份論點資料,作為將來發布指引之參考,並使企業等關係者在新法實施準備期間,得採取適當措施以達到法遵要求。 新法第16條之2「禁止不當利用」,旨在防止不當利用個人資料致本人權益受損。於「禁止不當利用之論點資料」指出具體要件有(1)「違法或不當行爲」,係指違反個人資料保護法及其他法令之行爲,或有違公序良俗,在社會觀念上非屬正當之行為;(2)「助長或誘發之危害」,在認定上將限縮在以業者提供時有認識第三方將違法利用個人資料,並可預見提供個人資料將受違法利用之情形,以免造成寒蟬效應。若第三方刻意隱瞞取得目的,即使已盡相當注意仍不能預見違法利用之情形,則非屬「危害」。 新法第30條第5項擴大「停止利用」請求權範圍,於「停止利用之論點資料」指出適用要件有(1)「個人資料處理業務已無利用個人資料之需要」,即個人資料利用目的已消失或該事業已中止時;(2)「發生第22條之2第1項本文情形」,係指發生資料外洩依規定須報告委員會之情形;(3)「可能損害本人權益時」,係指依法受保護之正當權益有受損可能為必要。另論點指出請求停止利用必須在「為防止本人權益受損必要限度內」,故業者對於超出必要限度之部分得拒絕之。而對於停止利用所費不貲或顯有重大困難之情形,得依個案具體考量採取適當替代措施。
日本監理沙盒制度推動趨勢—簡介生產性向上特別措施法草案與產業競爭力強化法修法內容我國自2017年12月通過《金融科技發展與創新實驗條例》建立金融監理沙盒制度後,各界時有呼籲其他非金融領域亦有沙盒制度之需要。觀察國際上目前於金融產業以外採取類似沙盒制度之國家,當以日本為代表,且日本相關制度亦為我國《中小企業發展條例》修法時之參考對象。 本文針對日本近期提出之《生產性向上特別措施法》(草案)以及日本《產業競爭力強化法》新近之修法等兩項日本近來有關沙盒制度之修法為觀察對象,針對其整體立(修)法背景、《產業競爭力強化法》中灰色地帶解消制度及企業實證特例制度修正重點以及《生產性向上特別措施法》(草案)中「專案型沙盒」之制度內涵進行整理,並比較企業實證特例制度及專案刑沙盒兩者制度上之異同。 本文最後發現,日本之沙盒制度設計上確實符合其減少事前管制、強調事後確認與評估、建立風險控管制度、課與主管機關提供資訊與建議之義務以及強化業者與主管機關聯繫等目標。同時,本文認為日本沙盒制度中有兩項制度特色值得我國關注及參考。第一,日本成立了包含外部專家的「評價委員會」,協助政府單位了解創新事業之內容及法規制度之觀察。第二,日本未來將提高實證制度之協調層級,在日本內閣府下設立單一窗口協助申請者決定其可適用之實證制度。