日本特許廳(Japan Patent Office,JPO)從去(2016)年12月開始,與NTT Data公司合作,使用人工智慧(Artificial Intelligence,簡稱AI)來系統化的回答有關專利問題,且依成果顯示,與原先運用人力回復的成果相當;JPO因此決定於今(2017)年夏天開始,將AI技術分階段應用於專利及商標的審查案,並期望能於下一會計年度(2018年4月至2019年3月),在審查業務中全面運用AI技術。
JPO指出,透過AI技術能有助於將專利及商標審查程序中繁冗的檢索程序簡化,以專利審查為例,可搜尋大量文件與檔案,進行專利先前技術檢索,以確保相關技術尚未獲得專利保護,同時也可以協助專利分類;此外,商標審查亦可利用AI之圖像辨識技術比對圖片及標誌,找出潛在的類似商標。
AI技術被證實能提升審查效率,並減輕審查人員檢索與比對部份的工作負擔,有助於抑制人工審查的長時間工作型態,根據2017年日本特許廳現況報告(特許庁ステータスレポート2017),於導入AI技術後,原本從申請到審查完成平均約2年左右之審查時間,期望可在2023年將審查期間降到14個月,讓日本成為智慧財產系統審查最快且品質最好的國家之一。
「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
為促進美國境內個人化診斷醫療器材發展並進一步實現個人化醫療之理想與目標,於今(2011)年7月14日時,FDA於各界期盼下,正式對外公布了一份「個人化診斷醫療器材管理指引文件草案」(Draft Guidance on In Vitro Companion Diagnostic Devices)。而於此份新指引文件草案內容中,FDA除將體外個人化診斷醫療器材定義為:「一種提供可使用相對應之安全且有效治療產品資訊之體外診斷儀器」外,亦明確指出,將視此類個人化檢測醫療器材產品為具第三風險等級之醫療器材,並採「以風險為基礎」(Risk-Based)之管理方式。 依據上述新指引文件草案內容,FDA對於此類產品之管理,除明訂其基本管理原則外,於其中,亦另列出兩項較具重要性之例外核准條件。第一項,是關於「新治療方法」(new therapeutics)部分,FDA認為,於後述情況下,例如:(1)該項新治療方法係針對「嚴重」或「威脅病患生命」、(2)「無其他可替代該新治療方法存在」、或(3)將某治療產品與未經核准(或未釐清)安全或功效之體外個人化診斷醫療器材並用時,其為病患所帶來之利益,明顯高於使用該項未經許可或未釐清之體外個人化診斷醫療器材所將產生之風險等前提下,FDA或將例外核准該項新治療方法。其二,是關於「已上市治療產品」部分,依據新指引文件草案,於下列各條件下,或將例外核准製造商以補充方式所提出之「新標示」產品之上市申請案,包括:(1)該新標示產品乃係一項已通過主管機關審查之醫療產品,且已修正並可滿足主管機關於安全方面之要求;(2)該產品所進行之改良須仰賴使用此類診斷試劑(尚未取得核准或未釐清安全功效);(3)將此項已上市治療產品與未經核准或未查驗釐清安全(或功效)之體外個人化診斷醫療器材並用時,其為病患所帶來之利益,明顯高於使用該項未經許可或查驗釐清之體外個人化診斷醫療器材所具之風險等。 此外,FDA方面還強調,若針對某項個人化診斷醫療器材之試驗結果顯示,其具較顯著之風險時,將進一步要求業者進行醫療器材臨床試驗(Investigational Device Exemption,簡稱IDE)。而截至目前為止,此項新指引文件草案自公布日起算,將開放60天供外界提供建議,其後FDA將參考各界回應,於修正後,再提出最終修正版本指引文件;然而,究竟FDA目前所擬採取之規範方式與態度,究否能符合境內業者及公眾之期待與需求?則有待後續之觀察,方得揭曉。
美國對於聯網環境中「關鍵基礎設施」之資訊安全議題展開行動面對境外網路安全的風險,美國歐巴馬總統於2013年2月12日,正式簽署「改善關鍵基礎設施之網路安全」行政命令(Executive Order 13636–Improving Critical Infrastructure Cyber security),據該行政命令第二款,將「關鍵基礎設施」定義為,「對於美國至關重要,而當其無法運作或遭受損害時,將削弱國家安全、經濟穩定、公共健康或安全之有形或虛擬系統或資產」,遂採取相對廣義之解釋。該行政命令第七款,亦指示美國商務部「國家標準技術研究所」(National Institute of Standard and Technology, NIST),將研議ㄧ個提升關鍵基礎設施資通訊安全之架構(Framework to Improve Critical Infrastructure Cybersecurity),將美國聯邦憲法所保障的企業商業機密、個人隱私權和公民自由等法益納入考量。 針對關鍵基礎設施引發重要之法制議題,美國副司法部長Mr. James M. Cole表示,由於關鍵基礎設施影響所及者,乃人民在法律下的權益,公部門政府將在該項議題上與私部門共同合作(partnership),且未來將研議通過立法途徑(legislation),將隱私權和公民權保護(the incorporation of privacy and civil liberties safeguards)納入關鍵基礎設施資通訊安全法制之全盤考量,相關趨勢殊值注意。
英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議: (一)關於人工智慧及應用界定與發展 人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。 (二)未來對社會及政府利益及衝擊 人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。 目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。 在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。 (三)關於相關道德及法律風險管理課題 人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考: (1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。 (2)調適由人工智慧作決策行為時的歸責概念和機制。 有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。 針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。 人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。
資通安全法律案例宣導彙編 第4輯