日本發布深化與推動開放科學之建言

  日本學術會議所屬「深化與推動開放科學檢討委員會(オープンサイエンスの深化と推進に関する検討委員会)」為深化與推動開放科學發展,於2020年5月28日發布建言(原文為提言)。本建言接續國際間提倡的「資料驅動型科學」、與日本Society5.0政策內「資料驅動型社會」構想,目的在於凸顯研究資料共享概念與共享平台的重要性,梳理現行措施下的問題,並提出政策與制度調適建議。

  建言提出三項觀察。其一,研究論文投稿至期刊出版機關,論文尚未審查通過並發表前,論文本身與經整理之研究資料的著作財產權雖屬於原作者所有,出版機關原則會另與投稿作者約定,作者不得對外公開其研究成果與研究資料,目的在於避免未經審查通過的成果與資料散布,造成錯誤訊息流通。COVID-19疫情蔓延期間,美國國家衛生研究院(National Institutes of Health, NIH)、國立研發法人日本醫療研究開發機構(AMED)等研究資助機構,則依循過往大規模傳染病發生時的慣例,與期刊出版機關等達成協議並發表聲明,只要作者同意釋出,即允許有關論文發表前得先將研究成果與資料與WHO及外界共享,期待藉資料快速公開流通協助對抗疫情。這些措施體現了資料的重要性與共享可能性,但共享後,利用方新取得的資料應如何繼續以適切方式公開,則有賴資料的數位平台機制完備現行作法的不足。其二,資料本身非著作物,不直接受著作權法保護,各國法例亦較少另外賦予資料庫(database)法定權利。日本則在不正競爭防止法增訂「提供予特定對象資料(限定提供データ)」保護制度,定義非法取用原僅授權特定人使用之資料的行為,將落入不當競爭行為的範疇,強化營業與數位資料利用之法定權利保護。其三,近年來,日本公平交易委員會因應Google、Amazon可能運用資料蒐集達成市場壟斷的疑慮,重新檢討其反托拉斯政策,顯示資料利用亦可能牴觸反托拉斯法;歐盟一般資料保護規則(GDPR)的規範強度與密度較日本國內法為高,則讓資料利用涉及個資時,無法僅以日本個資法為標準。資料利用涉及多部法規,增加資料利用者合法使用的難度,從而降低研究者再利用研究資料的意願。

  基於上述觀察,本建言提出以下法制與政策建議:(1)統整不正競爭防止法、個人資料保護法、著作權法等相關法規範,同時考量研究資料本身特性與社會應用途徑,作成指引供外界遵循;(2)國家應資助學術界或進行研發活動之機構,建構得長期蒐整、保存與共享研究資料之平台,協助實現跨領域或跨部門的研究資料融合利用與價值創造;(3)針對研究成果採用的原始樣本(如岩石、土壤、生物、物質等),以及人文社會科學領域研究的原始資料(如文書紀錄、書籍、技術等),建立永久保存之制度。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
你可能會想參加
※ 日本發布深化與推動開放科學之建言, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8501&no=64&tp=1 (最後瀏覽日:2025/05/19)
引註此篇文章
你可能還會想看
澳洲發布國家身分韌性戰略

所謂「身分」(Identity)是「特徵」(characteristics)或「屬性」(attributes)的組合,可讓個人在特定環境中與其他人區分開來,以證明自己的身分,例如出生日期和地點、臉部圖像等。澳洲政府有鑑於數位經濟的快速成長,線上身分驗證比實體身分驗證更為頻繁,促使犯罪人竊取和濫用身分資訊與資格證明(credentials),使得越來越多人面臨網路犯罪和詐欺的風險,澳洲在2021年時更因為身分竊盜事件橫行,造成超過18億美元的經濟損失。 為此,澳洲資料和數位部長會議(Data and Digital Ministers Meeting, DDMM)於2023年6月23日發布「國家身分韌性戰略」(National Strategy for Identity Resilience),以取代2012年國家身分安全戰略(National Identity Security Strategy),宣示澳洲政府加強身分基礎設施和對身分竊盜的韌性與復原力,推動澳洲各州、領地(territory)和聯邦(Commonwealth)採用全國一致的身分韌性方法,使得個人身分難以被竊取,縱然不幸遭竊取,受害人亦能夠輕易自身分犯罪中恢復身分。 該戰略由十項原則組成,包含:(1)無縫接軌的聯邦、州和領地數位身分系統;(2)具包容性的身分辨識機制;(3)個人與公私部門都有各自角色;(4)制定國家實體與數位資格證明標準;(5)建立生物辨識和經同意的身分驗證;(6)便利個人跨機構更新身分資訊;(7)更少的資料蒐集與保存;(8)明確的資料分享協議;(9)資格證明的一致撤銷和重新簽發;(10)明確的問責與責任。搭配短、中、長期的實施規畫,循序漸進地加強與一制化澳洲跨司法管轄區的身分安全管理機制。

美國零售商Kroger聲稱零售商Lidl註冊之新商標有混淆Kroger的知名商標之虞

  Kroger成立於1883年,在美國擁有近3000家分店,為美國最大食品雜貨零售店,其註冊商標“Private Selection”相當知名,被廣泛使用在超市、便利商店及其他各種零售商店約20多年。然而在全球擁有超過10000家分店的歐洲零售店巨頭Lidl,亦於2016年9月19日於美國註冊與“Private Selection”近似的商標“Preferred Selection”。   對此,Kroger於Lidl在美國開立新門市不久之後,即於今(2017)年6月30日對Lidl起訴,主張Lidl的“Preferred Selection”與Kroger的“Private Selection”品牌商標太相似,Lidl於德國是以低價折扣作定位之連鎖超市,且產品曾被認定為劣質。Lidl的行為意圖混淆“Preferred Selection”與“Private Selection”,將稀釋Kroger的品牌知名度,不僅侵害商標亦將損及商譽,甚至從中牟取不當利益,導致不公平競爭。故Kroger據以向美國維吉尼亞州地方法院請求禁止Lidl販售使用“Preferred Selection”商標的產品。   Lidl反駁認為其商標註冊已有一段時間,Kroger卻故意選其展店亮相後才大肆攻擊Lidl的新品牌,嚴重干擾Lidl的宣傳效益,更何況兩者商標名稱不同,標誌圖形的設計也不同。今年7月25日,美國維吉尼亞州地方法院法官表示,儘管品牌標誌看起來相似,但兩者並無相同或相似的含意,拒絕授予Kroger聲請之禁令。惟兩造於今年9月達成協議,請求法院駁回訴訟,而Lidl最終於今年9月12日放棄“Preferred Selection”商標權。

MPAA 藉由 BT 網站伺服器記錄對 P2P(BT) 軟體用戶提起訴訟

  追蹤、定位、起訴,所有 P2P(BT) 軟體使用者的噩夢再次上演。全美製片業團體「美國電影協會」 ( Motion Picture Association of America ; MPAA ) 在 8 月 25 日對美國境內 286 位居民提起訴訟,成為首宗利用 P2P(BT) 網站伺服器記錄 ( server logs ) 追蹤 ( track down ) 盜版電影下載者的案例。   今年 2 月,著名 BT 網站 LokiTorrent 與 MPAA 的大戰告一段落。德州法院下令 LokiTorrent 關閉網站外,並命令 LokiTorrent 將伺服器記錄轉交給 MPAA 的調查員 ( investigator ) 。 MPAA 的發言人聲稱本月 25 日的訴訟與此事件無關,但所有人都明白 MPAA 正是憑此線索,最終找到了 P2P(BT) 用戶的行蹤。好萊塢希望藉此行動阻嚇免費下載電影的行?, MPAA 資深副總裁 John Malcom 聲稱「下載盜版電影的人要當心了,當你為著作權侵害行為時,網路上並不會有朋友站出來替你撐腰。」   儘管 P2P(BT) 軟體背負著助長盜版的惡名,但 P2P(BT) 的合法用途也在逐漸增加,例如使用 P2P(BT) 技術分發 ( distribute ) 開放原始碼軟體 ( open-source software ) ,網路瀏覽器軟體公司 Opera 即在新版的程式中內建了此種技術。 BT 技術的發明人 Bram Cohen 曾警告用戶,使用 P2P(BT) 軟體下載盜版是個蠢主意,因?軟體在設計時並未刻意隱藏用戶的識別資訊,這也是為何 MPAA 此次能憑藉著伺服器記錄對用戶提起訴訟的主要原因。

英國資訊委員辦公室提出人工智慧(AI)稽核框架

  人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。   AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。   「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。   ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。

TOP