日本學術會議所屬「深化與推動開放科學檢討委員會(オープンサイエンスの深化と推進に関する検討委員会)」為深化與推動開放科學發展,於2020年5月28日發布建言(原文為提言)。本建言接續國際間提倡的「資料驅動型科學」、與日本Society5.0政策內「資料驅動型社會」構想,目的在於凸顯研究資料共享概念與共享平台的重要性,梳理現行措施下的問題,並提出政策與制度調適建議。
建言提出三項觀察。其一,研究論文投稿至期刊出版機關,論文尚未審查通過並發表前,論文本身與經整理之研究資料的著作財產權雖屬於原作者所有,出版機關原則會另與投稿作者約定,作者不得對外公開其研究成果與研究資料,目的在於避免未經審查通過的成果與資料散布,造成錯誤訊息流通。COVID-19疫情蔓延期間,美國國家衛生研究院(National Institutes of Health, NIH)、國立研發法人日本醫療研究開發機構(AMED)等研究資助機構,則依循過往大規模傳染病發生時的慣例,與期刊出版機關等達成協議並發表聲明,只要作者同意釋出,即允許有關論文發表前得先將研究成果與資料與WHO及外界共享,期待藉資料快速公開流通協助對抗疫情。這些措施體現了資料的重要性與共享可能性,但共享後,利用方新取得的資料應如何繼續以適切方式公開,則有賴資料的數位平台機制完備現行作法的不足。其二,資料本身非著作物,不直接受著作權法保護,各國法例亦較少另外賦予資料庫(database)法定權利。日本則在不正競爭防止法增訂「提供予特定對象資料(限定提供データ)」保護制度,定義非法取用原僅授權特定人使用之資料的行為,將落入不當競爭行為的範疇,強化營業與數位資料利用之法定權利保護。其三,近年來,日本公平交易委員會因應Google、Amazon可能運用資料蒐集達成市場壟斷的疑慮,重新檢討其反托拉斯政策,顯示資料利用亦可能牴觸反托拉斯法;歐盟一般資料保護規則(GDPR)的規範強度與密度較日本國內法為高,則讓資料利用涉及個資時,無法僅以日本個資法為標準。資料利用涉及多部法規,增加資料利用者合法使用的難度,從而降低研究者再利用研究資料的意願。
基於上述觀察,本建言提出以下法制與政策建議:(1)統整不正競爭防止法、個人資料保護法、著作權法等相關法規範,同時考量研究資料本身特性與社會應用途徑,作成指引供外界遵循;(2)國家應資助學術界或進行研發活動之機構,建構得長期蒐整、保存與共享研究資料之平台,協助實現跨領域或跨部門的研究資料融合利用與價值創造;(3)針對研究成果採用的原始樣本(如岩石、土壤、生物、物質等),以及人文社會科學領域研究的原始資料(如文書紀錄、書籍、技術等),建立永久保存之制度。
本文為「經濟部產業技術司科技專案成果」
歐盟隱私權工作小組(working party)日前公布其對「隱私與電子通訊指令」(Directive on Privacy and Electronic Communications, 2002/58/EC)之修正意見,藉此重申支持個人資料外洩通知責任立法之立場,並建議擴大適用通知責任之業者範圍至涉及線上交易之電子商務之服務提供者。此項建議隨即遭到歐盟理事會及委員會之反對,認為通知責任應僅限於電信公司,而不應擴及其他電子商務服務提供者。 歐盟隱私權工作小組於2009年2月初提出的報告指出,個人資料外洩通知責任法制(Data Breach Notification Law)之建立對於資訊社會服務(Information Society Service)之發展是必要的,其有助於個人資料保護監督機構(Data Protection Authorities)執行其職務,以確認受規範之服務提供者是否採取適當的安全措施。再者,亦可間接提高民眾對於資訊社會相關服務使用之信心,保護其免於身份竊盜(identity theft)、經濟損失以及身心上之損害。 然而,歐盟理事會及歐洲議會則反對該項修正建議,其一方面認為不應擴張資料外洩通知責任制度適用之業者,另一方面則認為對於是否透過法制規範課予業者通知之義務,應由各國立法者決定是否立法,甚或由業者依資料外洩情形嚴重與否,來判斷是否通知其各國個人資料保護相關組織及客戶。此外,參考外國實施之成效,美國雖有多數州別採用資料外洩通知責任制度,但並非所有的隱私權團體皆肯認該項制度;英國資訊委員會對於該制度之成效則仍存質疑,因從過去為數眾多的個人資料外洩事件看來,其效果已逐漸無法彰顯。 雖然歐盟個人資料保護官(European Data Protection Supervisor)與歐盟隱私權工作小組之看法一致,但其與歐洲議會與歐盟理事會仍存有歧見,對於個人資料外洩通知責任制度之建立,似乎仍有待各方相互協商尋求共識,方能決定是否納入歐盟隱私及電子通訊指令之規範。
美國強制電子通訊服務提供者保存用戶紀錄之立法提案引起強烈抨擊由美國共和黨所倡議的法案「Internet Stopping Adults Facilitating the Exploitation of Today's Youth Act of 2009」(S. 436,H.R. 1076),於今年2月13日交由參、眾兩院進行審議;鑒於網路色情危害青少年之問題相當嚴重,該法案訂定了加重色情犯罪刑度及其他數項保護措施,旨在減少網路色情對於兒童的危害。但其中一項措施要求電子通訊服務者、遠端電腦服務提供者,對於隨機配置之暫時性網路位置等相關可識別用戶身份的紀錄及資料,應保存至少兩年,引發業者及隱私權保護團體極大的反彈聲浪。 業者反彈的原因在於依據18 U.S.C §2510對於「電子通訊服務」(electronic communication service)之定義,係指「提供使用者接收、傳送有線或電子通訊的服務」,幾乎囊括所有類型的資通訊服務提供者;倘若法案通過,則如AT&T、Verizon電信業者、Comcast有線電視營運商、網路電話業者、提供Wi-Fi接取點服務者、及動態主機隨機配置IP位置之服務提供者等,未來皆須依規定負有保存記錄至少兩年的義務,將導致其儲存設備之成本大增。 此外,保衛隱私權團體大力抨擊此種無差別強制保存用戶特定紀錄的作法,形成潛在傷害隱私權的危機,若是保管不當而造成資料外洩、或資料遭不當使用,其受害規模將難以估算。由於業者及民間反彈聲浪相當大,參、眾兩院是否通過此法案,或做出若干調整,仍待後續觀察。
以自己姓氏Chanel作為髮廊名稱引發商標侵權訴訟如同一般事業經營者,位於印地安那州的一名女士Chanel Jones(以下簡稱Jones),以自己的姓氏Chanel作為自營髮廊的名稱”Chanel’s Salon”。然而這看似普遍平凡的舉動卻引來令Chanel Jones始料未及的訴訟爭議。 今年(2014)8月Chanel Inc.(以下簡稱Chanel公司)對Jones提起訴訟,主張Jones違反商標法及不公平競爭法,剽竊Chanel公司長期耕耘的品牌名氣、識別度及良好商譽,其行為可能造成消費者錯誤連結印象認為Chanel公司是Jones開設髮廊的經營者或贊助者,並請求法院判決禁制令禁止Jones使用其名Chanel作為髮廊名稱。 根據Chanel公司的起訴書,Jones兩年前開始使用Chanel’s Salon作為髮廊名稱,而2013年7月開始Chanel公司寄給Jones停止侵權通知書(cease-and-desist letter)要求他不得再將Chanel出現於其髮廊名稱中,隨後又再度寄了四封追蹤/跟催信(follow-up letter),但Jones始終未作任何回應,所以Chanel公司才於今年提起訴訟。 經歷了數月之後,於今年12月16日,Jones於此商標戰中屈服,當庭與Chanel公司達成和解,法官作出和解決定書(consent judgment),和解決定書中載明永久禁止Jones再使用其姓氏Chanel於髮廊名稱,並且於2015年2月15日前將所有提及Chanel的內容全部移除。雙方並且於簽定的和解判決書中認定使用Chanel名稱是侵犯Chanel公司商標權的行為。 值得一提的是,如同起訴狀內容,此和解決定書中亦特別謹慎正視Chanel是Jones姓氏的這個事實。內容提及並非Jones再也無法使用自己的姓名於任何個人且非商業性的場合或用來識別指稱自己,只要Jones使用其姓名的行為不會產生任何與Chanel公司密切關連或關係的隱含。 Chanel公司大動作維權行為並非首舉,事實上這個擁有105年歷史的精品時尚品牌不僅早於1924年開始就陸續申請註冊商標,一直以來也非常積極維護其品牌商標權,從一系列的維權舉動似乎也可看出百年品牌對於商標保護的重視,透過商標侵權的制止、商標權利的維護,堅定地捍衛其品牌於精品時尚業屹立不搖的地位。
歐盟發布新人工智慧規範,以風險程度判斷防止科技濫用歐盟執委會於2021年4月21日提出「人工智慧規則」(AI regulation)草案,成為第一個結合人工智慧法律架構及「歐盟人工智慧協調計畫」(Coordinated Plan on AI)的法律規範。規範主要係延續其2020年提出的「人工智慧白皮書」(White Paper on Artificial Intelligence)及「歐盟資料策略」(European Data Strategy),達到為避免人工智慧科技對人民基本權產生侵害,而提出此保護規範。 「人工智慧規則」也依原白皮書中所設的風險程度判斷法(risk-based approach)為標準,將科技運用依風險程度區分為:不可被接受風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)及最小風險(Minimal risk)。 「不可被接受的風險」中全面禁止科技運用在任何違反歐盟價值及基本人權,或對歐盟人民有造成明顯隱私風險侵害上。如政府對人民進行「社會評分」制度或鼓勵兒童為危險行為的語音系統玩具等都屬於其範疇。 在「高風險」運用上,除了作為安全設備的系統及附件中所提出型態外,另將所有的「遠端生物辨識系統」(remote biometric identification systems)列入其中。規定原則上禁止執法機構於公眾場合使用相關的生物辨識系統,例外僅在有目的必要性時,才得使用,像尋找失蹤兒童、防止恐怖攻擊等。 而在為資料蒐集行為時,除對蒐集、分析行為有告知義務外,也應告知系統資料的準確性、安全性等,要求高度透明化(Transparency obligations)。不只是前述的不可被接受風險及高風險適用外,有限風險運用中的人工智慧聊天系統也需要在實際和系統互動前有充足的告知行為,以確保資料主體對資料蒐集及利用之情事有充足的認知。 在此新人工智慧規範中仍有許多部份需要加強與討論,但仍期望在2022年能發展到生效階段,以對人工智慧科技的應用多一層保障。