歐盟生醫研究積極籌組歐盟研究基礎設施聯盟(ERIC)

  歐盟自2009年6月通過並於同年8月生效之「第723/2009號歐盟研究基礎設施聯盟法律架構規則」(COUNCIL REGULATION (EC) No 723/2009 of 25 June 2009 on the Community legal framework for a European Research Infrastructure Consortium (ERIC),簡稱第723/2009號規則),其乃希望能促進各會員國間各自分散的研究基礎設施(Research Infrastructures,簡稱RIs)之資源凝聚及共享,讓原本僅為設施設備的RIs整合起來,透過由3個以上歐盟會員國作為某特定ERIC成員之方式,依第723/2009號規則向歐盟執委會提出ERIC設立申請,經執委會同意後,ERIC即可取得獨立法律地位及法律人格,以自己名義獲得、享有或放棄動產、不動產及智慧財產,以及締結契約及作為訴訟當事人,並得豁免無須被課徵加值稅(value added tax)和貨物稅(excise duty)等稅賦。歐盟創設ERIC法律架構之目的,是希望能透過國際合作、彙集國際資源,在歐盟建立起頂尖研發環境,吸引跨國研發活動集中與進駐,利用規模化的大型研究基礎設施導引出世界級研發。

  截至目前,由奧地利、比利時、捷克、德國、荷蘭等國作為成員及瑞士作為觀察員所建立之「歐盟健康、老化及退休調查」(The Survey of Health, Ageing and Retirement in Europe,簡稱SHARE),乃是歐盟首次提出申請且正式設立之ERIC。SHARE-ERIC乃一大型的人口老化多國研究資料庫,並已收錄45,000筆以上年齡50歲以上個人之健康、社經地位及社會家庭網絡之跨領域及跨國籍資料,SHARE-ERIC之資料分析除將有助歐盟國家就老化社會之福利系統為規劃,更預期將成為推動其活動及健康老化歐盟創新伙伴試行計畫之重要基石。

  除此之外,自2008年起由歐盟撥款500萬歐元籌備成立之「生物銀行及生物分子資源研究基礎機構」(Biobanking and Biomolecular Resources Research Infrastructure,簡稱BBMRI),從2008年至今(2011)年1月底3年籌備期間,已募得30個以上國家之53個會員聯盟以及280個聯繫組織(大部分為生物銀行),預計將建立成為最大的泛歐生物銀行,病患及歐盟人口之樣本與資料之介面,以及頂尖生醫研究之介面,且為了要BBMRI-ERIC,BBMRI指導委員會業已擬定「BBMRI-ERIC備忘錄」提供予有興趣之會員國家簽署,希望能在今年底前成立BBMRI-ERIC。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 歐盟生醫研究積極籌組歐盟研究基礎設施聯盟(ERIC), 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5490&no=64&tp=1 (最後瀏覽日:2026/05/06)
引註此篇文章
你可能還會想看
數位內容傳輸新服務:推動數位內容產業的另一個面向

伊格奈科技公司(Ignite Technologies Inc.)推出了一款數位內容傳播輔助工具,可幫助企業傳輸大量的數位內容檔案。此項名為伊格奈溝通者(Ignite Communicator)的服務,能協助企業傳輸各種數位內容的檔案,包括視訊、圖形及軟體。此項工具最大的特色,在於能跨越各種不同的作業平台,進行檔案傳輸。   伊格奈此項新服務,能協助企業傳遞資料給遠端行動的使用者,亦可聯結企業夥伴或客戶各種不同層級的網路系統。對於內容豐富而檔案龐大的數位內容傳播而言,此類跨平台的傳播技術與服務,對於 B2B 與 B2C 的數位內容應用,都是一大推動助力。

美國最高法院認定警方向通信業者取得嫌犯之通信之基地台位址資訊須持有搜索票

  繼2012年最高法院認為警方在無搜索令的情況下,以GPS追蹤裝置查探犯罪嫌疑人之位置資訊違反憲法第四修正案。最高法院於2017年6月5日,認為警方未持搜索票,而向電信公司取得犯罪嫌疑人過去127天共計12,898筆之行動通信基地台位置資訊(cell-site data)之行為,違反憲法第四修正案。   由於個人利用行動通訊服務時,必須透過基地台進行通訊,因而可藉由該基地台位置,得知每個人所在之區域位置,而此一通訊紀錄過去被電信公司視為一般的商業資訊,因為得知通訊基地台的位置資訊,無法直接得知個人所在的精準位置,僅能得知其概略所在地區。   因此,犯罪調查機關基於1979年 Smith v. Maryland案所建立之原則,即只要該個人資訊屬於企業的一般商業紀錄(normal business record),警方可以在無搜索令的情況下,向企業取得個人資訊, 此一原則又稱為第三方法則(third-party doctrine)。過去在地方法院或上訴法院的審理中,法院對此多持正面見解,認為只要該資料與進行中之犯罪偵查活動有實質關聯(relevant and material to an ongoing criminal investigation),警方即可向業者取得。大法官Sonia Sotomayor早在前述2012年GPS追蹤裝置案的協同意見書中表示,第三方法則不應適用在數位時代,例如用戶撥電話給客服人員,或以電子郵件回覆網路購物的賣方等,無數的日常活動已經大量的向第三方揭露許多資訊。   在數位時代,大量的個人資訊以電磁紀錄的形式掌握在第三方手中,本案最高法院的見解,將會對美國的犯罪調查機關在未持搜索令的情況下,更慎重的判斷向業者取得個人資訊做為犯罪偵查使用時,是否與憲法第四修正案有所違背。

美國財政部外國資產控制辦公室更新發布與勒索軟體支付相關之制裁風險諮詢

  美國財政部外國資產控制辦公室(The US Department of the Treasury’s Office of Foreign Assets Control, OFAC)於2021年9月21日更新並發布了與勒索軟體支付相關之制裁風險諮詢公告(Updated Advisory on Potential Sanctions Risks for Facilitating Ransomware Payments)。透過強調惡意網絡活動與支付贖金可能遭受相關制裁之風險,期待企業可以採取相關之主動措施以減輕風險,此類相關之主動措施即緩減風險之因素(mitigating factors)。   該諮詢認為對惡意勒索軟體支付贖金等同於變相鼓勵此種惡意行為,故若企業對勒索軟體支付,或代替受害企業支付贖金,未來則有受到制裁之潛在風險,OFAC將依據無過失責任(strict liability),發動民事處罰(Civil Penalty制度),例如處以民事罰款(Civil Money Penalty)。   OFAC鼓勵企業與金融機構包括涉及金錢存放與贖金支付之機構,應實施合規之風險管理計畫以減少被制裁之風險,例如維護資料的離線備份、制定勒索事件因應計畫、進行網路安全培訓、定期更新防毒軟體,以及啟用身分驗證協議等;並且積極鼓勵受勒索病毒攻擊之受害者應積極聯繫相關政府機構,例如美國國土安全部網路安全暨基礎安全局、聯邦調查局當地辦公室。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

TOP