美國FDA公布510(k)醫療器材上市前許可指引針對醫療器材上市前之審查規範提出更完善詳細之調整

刊登期別
第27卷,第03期 ,2015年03月
 
隸屬計畫成果
經濟部技術處產業創新體系之法制建構計畫成果
 

本文為「經濟部產業技術司科技專案成果」

※ 美國FDA公布510(k)醫療器材上市前許可指引針對醫療器材上市前之審查規範提出更完善詳細之調整, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7004&no=0&tp=1 (最後瀏覽日:2026/02/09)
引註此篇文章
你可能還會想看
德國「新車輛及系統技術」補助計畫第二期

  「新車輛及系統技術」(Neue Fahrzeug- und Systemtechnologien)補助計畫係德國為確保汽車產業能夠在未來保持其技術領先地位所規劃的研究補助方案,該計畫從2015年6月起為期4年,聚焦車輛本體設計及車聯網技術解決方案;2018年11月,有感數位化變革所帶來的壓力,以及聯網自動駕駛顛覆未來交通面貌的潛力,德國聯邦經濟及能源部(BMWi)決定將前述計畫延長4年至2022年12月31日,並追加補助金額至每年6000萬歐元,促進聯網自動化駕駛及創新車輛領域的相關研發,具體鎖定的項目包含:(1)創新感測技術與傳動系統(2)高精度定位技術(3)迅速、安全、可靠的通信協作技術(4)創新資料融合及資料處理程序(5)人車互動技術(6)配套的測試程序與認證(7)電動車搭載自動駕駛功能的具體解決方案(8)透過輕量化提升能源效率技術(9)空氣動力學優化技術(10)創新動力推進技術。聯邦政府希望藉由第二輪的「新車輛及系統技術」補助計畫,協助歷來引以為傲的汽車工業克服資通訊技術革新、氣候保護趨嚴及能源效率要求所帶來的挑戰,全力避免此一德國重要經濟命脈淪為數位化浪潮下的犧牲者。

德國聯邦專利法院認定人工智慧不具專利發明人資格 但特別點出人工智慧在發明之貢獻

  德國聯邦專利法院在2021年11月中旬對美國發明人Stephen Thaler(後稱Dr. Thaler)所開發之AI系統(DABUS)是否能成為專利發明人作出判決,儘管AI在研發過程中協助發現問題並解決問題,法院仍認為專利發明人必須為自然人,但特別補充說明這項發明確實有得到AI的幫助。   Dr. Thaler及其法律團隊將該發明在各國進行專利申請。盤點各國智財局或法院之考量:美國專利商標局(USPTO)強調發明人應以自然人為由排除這類案件;儘管英國智財局(UKIPO)認同DABUS富有創新,卻否認其為合法發明人,不過認為有必要檢視AI技術帶給現存專利制度的挑戰,並已啟動針對AI發明之法律改革計畫;至於歐洲專利局(EPO)以不符合自然人或實體等資格而核駁這類案件,然而上訴結果將於12月下旬作出判決。   惟澳洲聯邦法院在7月底逆轉做出法律並未禁止以AI為發明人而提出專利申請之判決,這也是繼南非允許AI作為發明人而取得專利權之後的第二個案例。   根據各國智財局、世界智慧財產權組織(WIPO)與法院多將智慧財產係來自於心智創作,卻未定義該心智創作是來自於人類或AI,可預見非人類主體將可被視為發明人並授予智慧財產權。此外,現行智財法律也有重新檢視與定義之必要性,包括釐清AI演算法與AI開發者之角色以重新定義發明人資格或所有權人等議題。

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

芬蘭Skene計畫聚焦電玩遊戲產業

  依據統計,2011年全球電玩遊戲產值約516億歐元,是娛樂產業中成長最快速的領域,行動遊戲(mobile gaming)也因智慧型手機普及率之提升,在其中扮演舉足輕重的角色。有鑒於此,芬蘭政府於今(2012)年啟動Skene-遊戲補給計畫(Skene-Game Refueled,以下簡稱Skene計畫)促進其遊戲產業的研發創新。   Skene計畫預計從今(2012)年起實施至2015年,將投入7000萬歐元資金補助,其中3000萬歐元由芬蘭的創新補助機關-國家技術創新局(teknologian ja innovaatioiden kehittämiskeskus,Tekes)提供。該計畫致力於創造國際級遊戲及娛樂聚落的形成,期能使芬蘭企業成為國際遊戲產業生態中的重要成員。芬蘭政府欲藉由此一計畫,突破芬蘭Rovio公司過往開發「憤怒鳥」(angry bird)遊戲之偶發性的成功模式,讓芬蘭遊戲產業獲得長期永續的商業效益。Tekes於本計畫中特別強調知識分享的重要,認為此計畫的核心目的在於促進相關知識或經驗,得以在研究機構的專家、遊戲公司乃至其他產業間有系統的傳遞。   事實上芬蘭推動Skene計畫之動機,除了著眼於遊戲產業本身所帶來的龐大商業效益外,也看到遊戲開發過程中產出工具在其他產業之模型、模擬實驗、使用者介面設計及傳統軟體開發方面之助益(例如在醫療照護產業、運算服務之運用或協助教育環境建構或運動訓練等)。由此觀之,芬蘭政府透過Skene計畫推動遊戲產業研發創新之考量,尚包括帶動其他產業之提升的深遠思考。   近年來我國遊戲產業在商業上的表現逐漸受到各界重視,在此背景下,芬蘭Skene計畫無論在具體作為及其背後的思維模式上,皆有我國可以參考借鏡之處。

TOP