荷蘭與德國率先成立GO FAIR國際支援與合作辦公室,推動歐洲開放科學雲

  歐洲開放科學雲(European Open Science Cloud, EOSC)旨在整合現有的數據基礎設施以及科研基礎設施,為歐洲研究人員與全球科研合作者提供共享的開放資料服務。為此,荷蘭與德國於12月率先成立GO FAIR國際支援與合作辦公室(The GO FAIR international support and coordination office, GFISCO)。荷蘭辦公室坐落於萊頓,並由荷蘭政府與萊頓大學醫學中心(Leiden University Medical Center)所共同出資設立。

  該辦公室之成立源自於GO FAIR計畫,GO意即全球開放(The Global Open)、FAIR則分別係指可發現(Findable)、可連接(Accessible)、共同使用(Interoperable)和可重複使用(Re-usable),其目標在於跨越國界,開放目前科研領域現有的研究數據,係為邁向歐洲科學雲之里程碑。 荷蘭與德國曾於2017年5月時,發表聯合立場聲明書以展現推動歐洲開放科學雲以及全力支援GO FAIR計畫之企圖心,此次辦公室之設立為,包含以下主要任務:

  1. 支援由個人、機構、計畫組織等各方所組成的GO FAIR實踐網絡(GO FAIR Implementation Networks, INs)之營運工作。
  2. 進行GO FAIR實踐網絡之協調工作,以避免重複或壟斷之情形發生。
  3. 透過教育支援等方式倡議推行GO FAIR計畫。

  GO FAIR國際支援與合作辦公室主要之角色為提供建言,而非幫助GO FAIR計畫做決策,若無達成預期效果或是缺乏明確的工作計畫時,該辦公室則可提供相關服務,以協助達成預期目標,並協助處理行政上之相關議題。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 荷蘭與德國率先成立GO FAIR國際支援與合作辦公室,推動歐洲開放科學雲, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7961&no=67&tp=1 (最後瀏覽日:2025/11/27)
引註此篇文章
你可能還會想看
英國與美國為人工智慧安全共同開發簽署合作備忘錄

英國技術大臣(U.K. Secretary of State for Science)蜜雪兒·多尼蘭(Michelle Donelan)和美國商務部長(U.S. Secretary of Commerce)吉娜·雷蒙多(Gina Raimondo)於2024年4月1日在華盛頓特區簽署一份合作備忘錄(MOU),雙方將共同開發先進人工智慧(frontier AI)模型及測試,成為首批就測試和評估人工智慧模型風險等進行正式合作之國家。 此備忘錄之簽署,是為履行2023年11月在英國的布萊切利公園(Bletchley Park)所舉行的首屆人工智慧安全峰會(AI Safety Summit)上之承諾,諸如先進AI的急速進步及濫用風險、開發者應負責任地測試和評估應採取之適當措施、重視國際合作和資訊共享之必要性等等,以此為基礎羅列出兩國政府將如何在人工智慧安全方面匯集技術知識、資訊和人才,並開展以下幾項聯合活動: 1.制定模型評估的共用框架(model evaluations),包括基礎方法(underpinning methodologies)、基礎設施(infrastructures)和流程(processes)。 2.對可公開近用模型執行至少一次聯合測試演習(joint testing exercise)。 3.在人工智慧安全技術研究方面進行合作,以推進先進人工智慧模型之國際科學知識,並促進人工智慧安全和技術政策的一致性。 4.讓英、美兩國安全研究所(AI Safety Institute)間的人員互相交流利用其團體知識。 5.在其活動範圍內,依據國家法律、法規和契約規定來相互共享資訊。 換言之,兩國的機構將共同制定人工智慧安全測試之國際標準,以及適用於先進人工智慧模型設計、開發、部署、使用之其他標準。確立一套通用人工智慧安全測試方法,並向其他合作夥伴分享該能力,以確保能夠有效應對這些風險。就如英國技術大臣蜜雪兒·多尼蘭強調的,確保人工智慧的安全發展是全球性問題,只有通過共同努力,我們才能面對技術所帶來的風險,並利用這項技術幫助人類過上更好的生活。

歐盟發布數位身分皮夾信賴方登錄實施規則,健全數位信任生態系

歐盟執委會於2025年5月6日發布《數位身分皮夾信賴方登錄實施規則》(Commission Implementing Regulation (EU) 2025/848 Laying down Rules for the Application of Regulation (EU) No 910/2024 of the European Parliament and of the Council as regards the Registration of Wallet-Relying Parties)(下稱實施規則),旨在幫助數位身分皮夾(Digital Identity Wallet)用戶確保其身分資料傳輸至可信賴對象,且傳輸之資料並未超過預期用途。 實施規則規範重點如下: (1)建置及維運登錄資料庫:會員國應建置皮夾信賴方(wallet-relying party)登錄資料庫,並指定登錄管理員負責管理及維運。 (2)訂定登錄政策及程序:會員國應訂定登錄政策,內容須涵蓋皮夾信賴方註冊時之身分識別及核實程序、登錄程序所需配套文件及佐證資料、用以確認皮夾信賴方提供資訊正確之真實來源、皮夾信賴方之救濟機制、驗證已註冊信賴方身分之規則及程序,並盡可能採自動化流程。 (3)申請登錄所需資訊:皮夾信賴方申請登錄時應提供之資訊,包括與官方身分紀錄一致之姓名或組織名稱、身分識別資料(如國民身分識別碼、商業登記號碼、加值營業稅號、歐盟經濟營運者註冊及識別碼(Economic Operator Registration and Identification Number))、地址、聯絡資訊、服務類型描述、針對各項預期用途擬請求之資料清單、是否為公務機關等。 (4)簽發相關憑證:會員國應授權至少1家憑證機構簽發皮夾信賴方存取憑證(access certificate),以確認皮夾信賴方之身分。會員國另得授權憑證機構簽發皮夾信賴方登錄憑證(registration certificate),以證明皮夾信賴方所取得之資料未超過預期用途。 (5)暫停或取消登錄資格事由:若有登錄資訊不實、違反登錄政策、請求資料超過預期用途等情事,將暫停或取消皮夾信賴方登錄資格。 (6)紀錄保存年限:登錄及憑證簽發紀錄應保存10年。 此實施規則已於2025年5月27日生效,將於2026年12月24日施行。

美國專利商標局結束專利申請審查後試行程序

  美國專利商標局(United States Patent and Trademark Office, USPTO)於2017年1月12日宣布其不再依其審查後試行程序(Post-Prosecution Pilot Program, P3 Program)受理新的案件。該程序係用以使發明人在專利申請程序受到駁回以後得提出更多回饋意見,以期減少上訴至專利審判暨上訴委員會(Patent Trial and Appeal Board, PTAB)之數量。   該程序係在2016年7月11日公布施行,在該程序中,申請人在最終駁回做成後兩個月內得請求召開聽證;申請人得對審查員進行20分鐘內之口頭簡報。簡報進行完畢以後,申請人即被排除於會議之外,審查委員之裁決將會以書面之形式通知申請人。   在P3程序創設以前,專利申請被駁回的發明人得採取上訴前先期審查會議試行計畫(Pre-Appeal Brief Conference Pilot Program)或是最終審議後試行程序2.0(After Final Consideration Pilot 2.0, AFCP2.0)的方式提出明顯錯誤的爭執或是申請內容的修改,但這兩種申訴方式並無法讓申請人取得直接向專利審查員進行簡報的機會。   在2016年7月11日公布本項試行程序時,USPTO即宣布本項計畫試行時間直到2017年1月12日,或是USPTO受理1600位合格申請為止,在本計畫按照預定時程結束後,USPTO表示將會依公眾回饋意見以及試行程序的結果來決定未來是否會施行類似於本計畫之措施。

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

TOP