何謂「日本A-STEP計畫」?

  日本A-STEP計畫係指研發成果最適展開支援事業計畫,由國立研究開發法人科學技術振興機構負責辦理,主要目的在於兼顧大學研究成果之學術價值及實用性,同時透過產學合作推展大學的研發成果,帶動創新產生。計畫針對產業技術瓶頸,為民間企業不易涉入的高風險研發領域,由科學技術振興機構中介民間企業與公私立大學、公私立技術學院、公立研究機構、國立研究開發法人、公益法人共同執行產學研種子研發計畫,再依據不同的目的、技術性質規劃不同類型的產學研合作研究計畫進行資助。

  研究成果最適展開支援事業有兩個特色:單一申請窗口、以及採取接續模式分段申請。其流程為,大學研究人員向國立研究開發法人科學技術振興機構申請研究成果最適展開支援事業,在研究開發階段中,若被補助的種子計畫在結束後,想持續進行研究,可申請另一階段-委託開發實用挑戰之計畫補助,國立研究開發法人科學技術振興機構將透過外界研究人員對計畫進行審核,決定是否延長計畫以及延長的期程。一般研究開發可區分為三階段:可能性驗證、實用性驗證與實證驗證,故研究人員在申請A-STEP計畫時,研究計畫中需提及所申請計畫的現在發展情況與條件及想申請何種項目,以利國立研究開發法人科學技術振興機構決定後續的處理方式。

本文為「經濟部產業技術司科技專案成果」

※ 何謂「日本A-STEP計畫」?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7608&no=57&tp=1 (最後瀏覽日:2026/05/15)
引註此篇文章
你可能還會想看
韓國通過個人資料保護法修法並對其執行命令指引提出修正草案

2023年9月27日,韓國個人資訊保護委員會(Personal Information Protection Commission, PIPC)就《個人資料保護法》(Personal Information Protection Act, PIPA)執行命令之指引修正(Enforcement Decree Amendment Guide)草案展開諮詢,諮詢將持續至2023年11月30日為止。韓國於2023年3月修正個人資料保護法,該修正於2023年9月15日生效,而指引修正之目的即是協助各界能夠遵循新修法後的義務,因此該指引草案詳細說明了修法後有關資料蒐集、獲得當事人同意之條件、使用和提供存取要求等內容。最終版的指引預計將於2023年12月發布。 韓國個人資料保護法於2023年的修訂範圍廣泛,特別是關於跨領域和行業個人資料處理標準等,使得公私部門中的資料處理人員和資料隱私人員必須深入瞭解此些變化,以確保能遵守最新的法律規定。 修訂後的韓國個人資料保護法強調實際保障資料主體的權利,並調整網路和實體業務之間不一致的資料處理標準,藉以迎接全面的數位轉型。此次韓國個人資料保護法修正重點如下: 1.強調確保資料主體的權利,即使在緊急情況下蒐集或處理個人資料時仍須提供足夠的保護措施。 2.釐清並調整網路和實體業務的不明確或不一致的法規,例如資料外洩的報告和通知時限、蒐集和利用14歲以下兒童個人資料需要獲得法定監護人同意的要求,以及對違規行為實施行政處罰的標準等。 3.要求處理大量個人資料的公共機構需強化保護措施,包括應分析和檢查存取記錄、指定負責每個系統的管理員,以及通知使用公共系統未經授權存取個人資料的事件等。 4.跨境資料傳輸條件調整為可傳輸至保護程度與韓國相當的國家或地區;並調整處罰金額,防止處罰金額過高超出責任範圍。。 韓國PIPC主委表示,此次對韓國個人資料保護法的修訂,反映了對資料主體權利更強大保護的需求。同時,考慮到此次修法的變動較大,建議各領域從業人員皆須仔細確認相關法遵內容,PIPC將針對不同領域需求來量身定制說明活動,積極提高大眾對修訂後的《PIPA》內容的理解程度,以確保韓國個人資料保護法修正後的實施。

世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧

世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。

論數位環境下個人資料保護法制之發展與難題-以「 數位足跡」之評價為核心

我國電子公文法制的最新發展

TOP