2009年5月,在日本「智慧財產戰略本部」所屬「以智慧財產進行競爭力強化專門調查委員會」(知的財産による競争力強化専門調査会)下所成立之「先進醫療專利檢討委員會」(先端医療特許検討委員会),針對日本在先進醫療技術領域的專利保護制度進行檢討,其中提出建言,建議修訂專利審查基準,將以下的醫療相關發明類型納入可獲專利保護之發明標的:1.既有醫藥品用法或用量之改良,其可以大幅改善藥物副作用或提升服藥後生活品質,同時其效果超越專家所能預想之程度;2.輔助醫師進行最終診斷之人體有關資料收集方法,例如核磁共振攝影(MRT)或電腦斷層掃描(CT)等技術相關發明。上述建言之後被納入智慧財產戰略本部所公佈之「智慧財產推進計劃2009」(知的財産推進計画2009)中,列為2009年度日本政府應執行之智慧財產權相關重要政策措施其中的一項,而前者便是所謂的藥品服用法發明專利。
這而日本特許廳根據上述政策決議,在2009年8月提出依委員會建議所修訂之專利審查基準修訂草案,而在完成徵詢公眾意見的行政程序後,於2009年11月正式公告成為新版的專利審查基準。
其中在「醫藥發明」部分,新版專利審查基準言明,若醫藥發明其成分與先前技術的醫藥品並無不同,同時適用之疾病症狀亦無不同,但其因為其所揭示的特定用法或用量,致使其在適用於特定疾病時會產生不同之效果時,這樣的發明仍會被認定為具有新穎性。而若此新用法或用量之醫藥發明相較於先前技術,其所產生之更有利效果,為發明當時相關技術領域具有通常知識者所可預期者,則此發明將不具備可專利性要件所要求之進步性,而無法獲得專利保護;反之若此新用法或用量之醫藥發明產生之有利效果,為超出發明當時相關技術領域具有通常知識者所可預期範圍之顯著效果,則此發明之進步性便會被肯認。因此,新版專利審查基準不僅言明了新用法或用量之醫藥發明可專利性要件審查之判斷標準,也明確將此類型之發明納為可受專利保護之標的。
本文為「經濟部產業技術司科技專案成果」
英國為眾多國家中致力發展金融科技的佼佼者,其相關政府部門-英國金融行為監理總署(Financial Conduct Authority, FCA)早於2016年即推出世界首例金融監理沙盒(Financial Regulatory Sandbox)制度,同時也與英格蘭銀行致力發展開放銀行業務、金融創新項目以及監管措施改革等等。也因為英國為金融科技提供了良好的環境以及養分,使目前英國金融科技佔全球市場總額10%,並有71%的英國公民至少接受一間金融科技公司提供服務;2020年金融科技為英國吸引了41億美元的投資,遠超德國、瑞典、法國、瑞士和荷蘭的總和。 為使英國金融科技持續成長,英國財政大臣於2020年要求針對英國金融科技現況及未來發展進行獨立性研究,該研究並於2021年2月公布。根據研究報告指出,英國金融科技正面臨下述三大問題: 其他國家紛紛仿效英國之成功模式,致使英國金融科技不再具有獨占地位。 英國脫離歐盟導致監管措施的不確定性。 新冠肺炎的來襲,迫使各國均快速發展並靈活運用金融科技,導致英國金融科技優勢地位逐漸喪失。 為了解決上述三大問題,研究報告提出了五項建議計畫: 針對政策以及監管方式之持續進步 雖然英國目前仍處於金融科技政策以及監管的領先地位,但隨著業務、科技等發展,必須確保政策以及監管方式繼續保護金融消費者,同時創造鼓勵創新和競爭的環境。因此建議的方案包含:實施新型態監理沙盒(Scalebox);建立一個數位經濟工作小組以確保政府各部門之一致性;確保金融科技成為貿易政策的一部分。 培養人才 英國需要確保金融科技擁有充足的國內和國際人才供應,以及因為預計在2030年,英國有90%勞動者需要學習新技能,因此也需要培訓和提升現有和未來勞動力技能的方案。因此建議的方案包含:辦理針對成年人進行再培訓和提高技能之短期課程;創建一個新的簽證類型,以提高獲得全球人才的機會;為學習金融科技的學生以及創業者建立媒合平台,設置金融科技人才管道。 建立友善的投資環境 英國雖然透過私募基金成功地為英國金融科技事業募資,但英國仍應該持續加強金融科技事業從初創到公開發行的一系列融資過程,尤其是融資的後期階段。因此建議的方案包含:擴大金融科技獎勵措施以及便利金融科技事業籌資(包含:擴大研發稅收抵免額度、企業投資計畫、風險投資信託);英國應該另行增設一個約10億英鎊之基金供金融科技發展使用;放寬英國上市公司限制(例如:雙層股權結構);創設一個全球金融科技指數以擴大金融科技事業知名度。 與國際合作 雖然英國目前取得金融科技的成功和未來數位貿易崛起的機會,但仍應採取更多的措施用以獲得更多國際支持,這將會成為英國在脫離歐盟後針對國際開放性作出的重大表態。因此建議的方案包含:針對金融科技提出國際行動方案;推動設立金融、創新和技術中心,並成立國際金融科技工作小組;推出國際金融科技認證組合。 英國國內整合 金融科技在國家的支持下,英國各地皆分布大量的金融科技人才。為了保持英國作為金融科技中心的地位,英國須注重規模和支持區域專業,尤其是大學正在創造的重要的智慧財產權。因此建議的方案包含:培育十大金融科技重鎮,而每個重鎮均應設置一個以強化金融科技、培養專家以及增加國家競爭力為目的的三年目標;通過金融、創新和技術中心協調國內金融科技發展策略;通過進一步的投資計畫加快金融科技重鎮的發展以及成長。
美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。
立法責令ISP業者留存紀錄之呼聲日益高漲立法強制 ISP 業者記錄客戶使用狀況以供日後調查之用,此等呼聲近來日形高漲。部分行政部門官員業已表態支持此一作為;另有數位國會議員亦主張,應儘速推動聯邦層級之立法,以協助執法部門對付兒童色情( child pornography )問題;甚至在科羅拉多州,目前已有相關法案進入該州參議會接受審理。 立法強制業者留存資料或記錄的作法,固然對於揭發犯罪繩之以法甚有裨益,但由於可能會讓警方得以取得電郵往來、網頁瀏覽、聊天記錄等向來可能經過幾個月之後就會刪除的資料,以致隱私保障人士以及 ISP 業者普遍對此甚感憂慮。歸納而言,其理由主為以下三點:第一,何人始有權限近用相關資料,探查他人上網行為之紀錄,仍待釐清;第二,存留該等資料所需空間勢必可觀,費用究竟由誰支應,亦屬未定;最後,現行法制是否對於警方辦案確實造成障礙,同樣有待探討。 美國司法部( the U.S. Department of Justice )去年即已逐步開始推動相關立法,而歐洲議會( the European Parliament )去年 12 月審議相關條文增修,要求 ISP 業者以及電信業者就其經手傳輸之所有電子訊息以及通話,均須保存相關紀錄 6 個月至 2 年之譜,更是引發諸多關注及討論。美國眾議院( the U.S. House of Representatives )能源商務委員會( the Committee on Energy and Commerce )監控調查組( the Subcommittee on Oversight and Investigations )預計本月 27 日將召開另一次聽證會,持續就此議題詳加探討。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。