對於目前科技技術日新月異的ICT資訊通信產業而言,標準是搶奪全球市場的利器。當私有專利技術成為國際標準時,國際市場的競爭企業不得不向技術成為國際標準的標準必要專利權人取得授權。為避免前述情形形成技術壟斷,標準必要專利權人藉此哄抬權利金價格,目前國際標準制定組織多訂有組織的智財政策,要求標準提案者必須揭露專利持有情形,並且若提案成為標準必要專利權者須以其規定的合理條件提供授權。電子工程師標準協會 (Institute of Electrical and Electronics Engineers Standard Association, IEEE SA)為著名的標準制定組織之一。
電子工程師標準協會在去年3月開始,便實施了新的專利政策,強調其會員們必須在標準提案通過之後,授權該標準必要專利(Standard Essential Patent, SEP)時,須遵守公平、合理,且非歧視的授權規則(Fair, Reasonable and Non-discriminatory, FRAND)。此項政策受到Cisco以及Intel等公司支持聯名支持, Cisco表示FRAND的條件要求將使SEP擁有者難以收取不合理的權利金。
而在IEEE如此強調FRAND授權方式時,我國相關企業及公司應注意FRAND條件的國際發展趨勢,不僅要了解自身義務,也該知曉自身權益,在有爭議時抑或仿效國際企業做法,向法院提起訴訟,或向我國公平會提出檢舉。
本文同步刊登於TIPS網站(https://www.tips.org.tw)
美國食品藥物管理署(U.S. Food and drug administration, FDA)之醫療器材與放射健康中心(Center of Devices and Radiological Health, CDRH)於今(2023)年10月10日發布2024財政年度指引,其內容依據預算配置的優先順序,將2024年醫療器材與放射產品相關指引分為「A級」、「B級」及「回顧性審查」三份清單。而CDRH希望將訊息公佈後,針對這些指引的優先處理順序、修改或刪除徵求外部建議,以下節錄這三份清單內容: (1)A級清單:FDA擬於2024 財政年度優先發佈的醫療器材指引文件清單,內容包含醫材的再製造及短缺管理、預訂變更控制計畫、運用真實世界證據輔助監管之決策,及基於人工智慧/機器學習之醫材的軟體生命週期管理指引等。 (2)B級清單:FDA 在 2024 財政年度於資源許可的前提下,擬發佈的指引文件清單,內容包括醫材製造商的故障主動報告計畫、製造與品質系統軟體之確效管理,及診斷測試用之3D列印醫材管理指引。 (3)回顧性審查清單:為1994年、2004年和2014年發佈至今,目前仍適用的指引文件綜合清單,詢問是否有需與時俱進之處。 具體而言,CDRH希望徵求外界對現有清單優先順序配置合宜性的建議,同時也開放各界提出哪些醫材相關主題的指引文件草案可待補充。對於回顧性審查清單,如有修訂或刪除之必要,亦應檢具建議與具體理由。 從此三份清單及後續外界的意見,我們可藉此掌握美國在醫材短缺管理、預定變更控制、運用真實世界證據決策,及醫材軟體生命週期與確效管理等領域,政府資源配置與投入的規劃,同時也作為我國醫材政策之借鏡。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。
英國先進材料研發之促進輔助法制政策介紹 美國猶他州針對未成年人使用社群媒體之新禁令美國猶他州州長柯克斯(Spencer Cox)於2023年3月23日簽署參議院152號法案(社群媒體規則修正案,Social Media Regulation Amendments)與眾議院311號法案(社群媒體使用修正案,Social Media Usage Amendments)等兩項法案,此舉是為了因應美國青少年日益沉迷社群媒體的問題,降低網路霸凌、剝削與未成年人個資外洩之風險。新法預計於2024年3月1日生效,兩項法案所提列之重點如下: 一、參議院152號法案針對社群媒體業者,要求其對於社群媒體應用程式之用戶,應採取以下措施: 1. 對於想要創設或持有社群媒體帳號之猶他州居民,須驗證其年齡。 2. 未滿18歲的用戶,須獲得父母或監護人的同意。 3. 允許家長有查看未滿18歲子女帳號內容之權限。 4. 訂定宵禁機制,於夜間(晚上10:30至早上6:30)禁止未成年登入使用帳號,但家長可視情形調整。 5. 禁止未成年用戶,向未曾關注或加好友的陌生人直接發送訊息。 6. 須於搜尋引擎中隱藏未成年人帳號。 7. 若違反上述內容,每項違反處以業者2,500美元之民事罰款。 二、眾議院311號法案針對「有使用導致未成年人成癮(Addiction)於社群媒體之設計或功能」之業者,訂定以下相關裁罰: 1. 經證明會導致未成年人對社群媒體成癮之行為、設計或功能,針對每項行為、設計或功能,處以業者25萬美元之民事罰款。 2. 若使未成年人接觸而致其成癮者,依未成年人數計算,每位最高可罰款2,500美元。 3. 允許父母得以其未成年子女因成癮致其身體、情感與財產上之損害為由,起訴社群媒體業者。 4. 若為未滿16歲之用戶依本法請求損害賠償者,媒體業者將推定過失責任,亦即由業者負舉證責任。 兩項法案皆是為保護美國18歲以下的未成年人,要求IG、TikTok、Twitter、Facebook等社群媒體一定作為與不作為之義務,若有違反情形,猶他州商務部消費者保護司(DCP)有權限對其違規行為處以民事罰款。上述美國法案針對未成年之保護,以透過規定使平臺業者設計出更優質、更完善的程式介面之觀點,可作為我國未來針對社群媒體監管措施之借鏡與觀察。