美國參議院認為健康資通訊科技(Healthy Information Technology)的創新與快速發展已經漸使現行法制不合時宜,美國食品藥物管理局(The US Food and Drug Administration)過度嚴格管制健康資通訊科技產品,甚至以法律強加健康資通訊業者不必要的負擔,恐抹殺新產業的創新能量,因此有必要對相關管制法規予以鬆綁。遂立法提案重新定義健康相關軟體,稱為「防止過度規範以促進照護科技法案」(The Prevent Regulatory Overreach To Enhance Care Technology Act of 2014,以下簡稱PROTECT Act)。
健康資通訊科技是目前創新與發展最快的美國產業。單以健康資通訊科技產業中,與健康相關的手機應用程式(application,APP)之開發,在全球經濟已創造數億美金的產值,在美國一地更提供了將近50萬份的工作機會。然而,在現行法制中食品藥物管理局認為健康相關的手機應用程式等軟體被廣泛應用於醫療行為的資訊蒐集,因此應當被視為醫療行為的一環。依據聯邦食品藥物及化妝品法(The Federal Food, Drug and Cosmetic Act,FD&C Act)之規定,健康資通訊科技產品被界定為醫療器材(Medical Devices),而健康管理APP、行事曆APP、健康紀錄電子軟體等低風險產品亦包含在內,都必須嚴格遵守醫療器材相關行政管制。在PROTECT Act中將風險較低的健康資通訊科技產品重新定義為臨床軟體(Clinic Software)與健康軟體(Healthy Software)兩種態樣,其共通點在於明白區分出單純提供市場使用,不影響人體或動物醫療的健康資訊蒐集與直接提供實際臨床診斷,如放射線影像或醫療器材軟件的差異,PROTECT Act所定義之臨床軟體與健康軟體即屬於前者,故排除適用FD&C Act中醫療器材之定義範圍,得免除相關行政管制。
本文為「經濟部產業技術司科技專案成果」
歐盟執委會(European Commission)於去(2011)年10月公布一份「建立共通性智慧讀表功能要項及影響因素(Set of Common Functional Requirements of the Smart Meter)」調查報告,對於各會員國發出問券,調查對於建設智慧讀表(智慧電網SmartGrid系統首要基礎)之經濟評估要項,藉此瞭解各國於推動建立,所考量之優先因素及差異性,並藉此彙整出「成本效益評估項目(Cost Benefit Assessments , CBAs)」,建立歐盟層級之共通性功能要項,以利後續其他會員國援用導入之政策工具。 以及,歐盟執委會所屬聯合研究中心(Joint Research Centre , JRC),於去(2011)年7月亦公布一份「歐盟智慧電網關鍵挑戰及發展趨勢(Smart Grids: New Study Highlights Key Challenges and Trends in the EU)」研究報告,指出歐盟各會員國現今已投入219個智慧電網計畫,總經費達5.5兆歐元以上,並設立展示(Showcases)網站,供外界瞭解推動進度;此研究報告並指出,要健全智慧電網發展,除了大規模投入經費資源建設外,更應重視各會員國對於原既有能源管制規範之體檢審視;該報告呼籲各會員國應積極建立新世代智慧電網規範,因為於現有管制規範下,常導向各國推動實務,多僅強調可降低系統運作支出成本,而不是直接朝向升級為智慧性整合體系而發展,於現有監管模式(Current Regulatory Models)下,縱使眾多投資於智慧電網,亦無法出現突破性發展。該報告並倡議,新世代管理規範,至少應建立服務平台運作原則及遵守規範,並導引效益之公平分享。 此外,歐盟執委會於去(2011)年4月間,關於智慧電網發展重要法制政策之關鍵議題,亦曾發布「智慧電網創新發展(Smart Grids: From Innovation to Deployment)」政策文件,其中明列發展智慧電網,首要應重視資料隱私及安全性議題(Addressing data privacy and security issues),亦必須建立共通性標準(Developing common European Smart Grids standards),及提供優惠政策措施,並且應確保消費者資料接取(Access)權利,保證維持公開競爭市場並鼓勵增進消費者利益之各項發展。
歐盟對於不可申請專利的基本生物學方法做出新解釋大多數國家是認為動植物為法定不得授予專利之標的,歐盟以往因為歐洲專利公約實施細則(Implementing Regulations to the Convention on the Grant of European Patents,下簡稱實施細則)跟擴大上訴委員會(the Enlarged Board of Appeal,簡稱EBA)決定不一致而造成爭議,EBA於2020年5月做出的新決定,對於動植物是否為可授予專利之標的做出一致性解釋。 在歐洲專利公約(European Patent Convention,簡稱EPC)第53條第2款規定用以生產動植物的基本生物學方法不可授予專利,並於2017年生效的實施細則第28條第2項將其進一步擴張解釋成,僅運用基本生物學方法所產生的動植物不可授予專利,這與EBA在2015年所做出的決定(G 2/12、G 2/13)並不一致,在2015年的決定中提到,運用基本生物學方法來界定動植物的請求項仍可以被接受,因此實施細則第28條第2項與2015年的決定產生衝突。 於2019年,技術上訴委員會(Technical Board of Appeal)在案例T 1063/18中發現了這個問題,並提到EBA討論,EBA表示,考慮到法條涵義可能因時間產生變化,需要對EPC第53條第2款進行動態解釋(dynamic interpretation),實施細則第28條第2項與EPC第53條第2款並未矛盾,而是進一步擴展為,僅通過基本生物學過程,或是由基本生物學方法界定動植物之情況,皆屬於不可授予專利之情況,而推翻之前的決定。而為維持法律安定性,本決定(G 3/19)對於2017/07/01前生效或申請的案件並不具效力。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。
日本內閣通過AI研發及活用推進法草案日本內閣於2025年2月28日通過並向國會提出《人工智慧相關技術研究開發及活用推進法案》(人工知能関連技術の研究開発及び活用の推進に関する法律案,以下簡稱日本AI法),旨在兼顧促進創新及風險管理,打造日本成為全球最適合AI研發與應用之國家。規範重點如下: 1. 明定政府、研究機構、業者與國民之義務:為確保AI開發與應用符合日本AI法第3條所定之基本原則,同法第4至第9條規定,中央及地方政府應依據基本原則推動AI相關政策,研發法人或其他進行AI相關研發之機構(以下簡稱研究機構)、提供AI產品或服務之業者(以下簡稱AI業者)及國民則有配合及協助施政之義務。 2. 強化政府「司令塔」功能:依據日本AI法第15條及第17至第28條規定,日本內閣下應設置「AI戰略本部」,由首相擔任本部長,負責制定及推動AI基本計畫,統籌推動AI技術開發與應用相關政策,並促進AI人才培育、積極參與國際交流與合作。 3. 政府調查及資訊蒐集機制:為有效掌握AI開發、提供及應用狀況,防止AI應用侵害民眾權益,日本AI法第16條規定政府應蒐集、分析及調查國內外AI技術研發及應用趨勢,並得基於上述結果,對研究機構或AI業者採取指導、建議或提供資料等必要措施。