英國政府於2020年2月13日發布了《藥品和醫療器材法》(Medicines and Medical Devices Bill)草案。根據英國國民保健署(NHS)的聲明,新法草案修改以及補充了現有的英國藥品、醫療器材、臨床試驗監管框架,確保英國能夠開發具有開拓性的醫療技術。
本次草案的提出原因之一為英國計劃自2020年12月31日起退出歐盟,過去英國藥品與醫療器材法律乃援引歐盟相關指令與規則(例如:歐盟醫療器材法規,Medical Device Regulation, (EU) 2017/745),一旦脫歐過渡期結束,英國將無法再透過1972年《歐洲共同體法》(ECA 1972)援用歐盟的規定來規範與更新藥品、醫療器材與臨床試驗法律。
本次法案另有幾項新增重點:
目前法案草案在國會二讀階段。
近年來,物聯網(Internet of Things, IOT)技術快速發展,隨著大勢所趨掀起一波專利申請熱潮。申請量增加的同時,亦代表相關技術的智財權使用者對於該領域的專利資訊需求大幅增加。然而,目前全球還沒有與此領域相關的專利分類系統協助大眾搜尋這些技術資訊。 有鑑於此,日本特許廳(Japan Patent Office,簡稱JPO)在今(2016)年11月14日針對物聯網技術領域全球首創新的專利分類ZIT。自2017年起,將可透過JPO的J-PlatPat系統利用此專利分類,檢索及分析物聯網相關的專利資訊。此專利分類能夠協助專利申請者更有效地檢索相關先前技術,亦能同時讓相關業者及專業人士了解當前物聯網技術的發展趨勢。 JPO不僅針對日本當地,亦努力與其他專利局合作。在世界五大專利局(簡稱IP5):包含歐洲專利局(European Patent Office,簡稱EPO)、韓國智慧財產局(Korean Intellectual Property Office,簡稱KIPO)、中國大陸知識產權局(the State Intellectual Property Office of the People’s Republic of China,簡稱SIPO)、美國專利商標局(The United States Patent and Trademark Office,簡稱USPTO)及JPO的專利局首長會議,以及世界智慧財產權組織(World Intellectual Property Organization,簡稱WIPO)的國際會議上,JPO積極鼓勵各國多加使用ZIT專利分類。 因應日本政府今年提出第四次産業革命戰略,瞄準三大核心技術其中亦包含了物聯網技術,JPO現在首創新的專利分類ZIT,更能提升物聯網的相關技術研發,為物聯網產業劃下重要里程碑。
美國青年盜錄電影遭受起訴聯邦檢察官指出 19 歲的 Curtis Salisbury ,在九月二十六日針對他在密蘇里州的聖路易市盜錄電影,並在網路上散佈等非法行為坦承犯案。 Salisbury 利用工作之便,於下班後使用數位錄影機及錄音器材盜錄兩部電影,進而在網路上散佈而遭到起訴。 Salisbury 因而成為第一位根據 “ 家庭娛樂及著作權法案 ” (Family Entertainment and Copyright Act) 而遭受起訴者。 家庭娛樂及著作權法案在 2005 年四月由國會通過,致力於遏止網路上的著作權侵害行為。法案中規定,運用視聽器材於電影院中盜錄電影者,可以處$ 250,000 罰金及三年以下有期徒刑,若進而在網路上傳播者,則需承擔額外的罰則。 儘管這樣的結果使大多數電影製片業者歡欣鼓舞。然而,如此嚴厲的刑罰具有爭議性,原因在於嚴厲的罰則是為暴力犯罪而設計,若應用於著作權相關議題時,實非一個明智的選擇。
歐盟公布人工智慧白皮書歐盟執委會於2020年2月19日發表《人工智慧白皮書》(White Paper On Artificial Intelligence-A European approach to excellence and trust)指出未來將以「監管」與「投資」兩者並重,促進人工智慧之應用並同時解決該項技術帶來之風險。 在投資方面,白皮書提及歐洲需要大幅提高人工智慧研究和創新領域之投資,目標是未來10年中,每年在歐盟吸引超過200億歐元關於人工智慧技術研發和應用資金;並透過頂尖大學和高等教育機構吸引最優秀的教授和科學家,並在人工智慧領域提供世界領先的教育課程。 而在監管方面,白皮書提到將以2019年4月發布之《可信賴之人工智慧倫理準則》所提出之七項關鍵要求為基礎,未來將制定明確之歐洲監管框架。在監管框架下,應包括下列幾個重點:1.有效實施與執行現有歐盟和國家法規,例如現行法規有關責任歸屬之規範可能需要進一步釐清;2.釐清現行歐盟法規之限制,例如現行歐盟產品安全法規原則上不適用於「服務」或是是否涵蓋獨立運作之軟體(stand-alone software)有待釐清;3.應可更改人工智慧系統之功能,人工智慧技術需要頻繁更新軟體,針對此類風險,應制定可針對此類產品在生命週期內修改功能之規範;4.有效分配不同利害關係者間之責任,目前產品責任偏向生產者負責,而未來可能須由非生產者共同分配責任;5.掌握人工智慧帶來的新興風險,並因應風險所帶來之變化。同時,白皮書也提出高風險人工智慧應用程式的判斷標準與監管重點,認為未來應根據風險來進行不同程度之監管。執委會並透過網站向公眾徵求針對《人工智慧白皮書》所提出建議之諮詢意見,截止日期為2020年5月19日。
金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。