歐盟在今年5月19日公布的數位議程(Digital Agenda)中,設定了多項寬頻建設目標,包括所有歐洲民眾於2013年均能擁有基本寬頻, 2020年擁有30Mbps以上的高速寬頻,與50%以上的歐盟家戶擁有100Mbps以上的超高速寬頻。為達成此項目標,歐盟執委會於今年9月20日提出了採納下世代網路管制建議(Commission Recommendation on regulated access to Next Generation Access Networks(NGA))、提出未來五年的無線電頻譜政策計畫,與鼓勵公、私部門進行寬頻網路投資等三項主要推動措施。
在NGA管制建議正式公布前,執委會曾於2008年與2009年兩度就建議草案進行公開資詢。執委會認為,此一建議除了可提升管制明確性,避免管制假期(regulatory holidays)外,並在鼓勵投資與維護競爭間取得適當平衡,其重要管制原則如下:
1. 管制者對於獨占業者之光纖網路接取進行成本訂價管制時,應藉由風險溢價(risk premium)充分反應投資風險,使投資者能獲取具吸引力之利潤。
2. 管制者應採取適當的接取管制措施,促使新進業者進入市場,使其可依投資階梯(ladder of investment)逐步建置其自有網路,促進基礎設施競爭。
3. 管制者所採取之事前管制措施,應反映個別市場與城鄉區域之市場競爭差異。
4. 管制建議強烈支持NGA網路的共同投資,並對長期或大量的光纖迴路接取合約,允許在一定條件下給予價格折扣。
於2000年基因圖譜解碼後,「基因歧視」議題成為各界關注焦點,而在電子通訊技術之配合下,更加速了包括基因資訊之個人醫療資訊的流通。在此時空背景下,如何能在善用相關技術所帶來的便捷同時,也對於相關資訊不甚外流時,得以有適切的因應措施以保障患者之隱私,成為了必須處理的問題。 美國國會甫於今年(2009年)2月所通過的「經濟與臨床健康資訊科技法」 (The Health Information Technology for Economic and Clinical Health Act, HITECH) 之相關修正中,強化了對醫療資訊之保護,其中要求美國衛生暨福利部(the Department of Health and Human Service, HHS ),針對受保護之醫療資訊未經授權而取得、侵入、使用或公開外洩之情形擬定「暫行最終規則」(interim final rule)進行管理,該項規則亦於今年(2009年)8月24日公布。值得注意的是,HITECH之規範主體(適用主體、商業夥伴)與保護客體(未依法定方式做成保護措施之健康資訊)皆沿用「1996醫療保險可攜性與責任法案」(the Health Insurance Portability and Accountability Act of 1996, HIPAA)之定義。然而,與HIPPA最大的不同在於, HIPAA中僅以私人契約之隱私權政策間接地管理醫療資料外洩事件,但於暫行最終規則中直接課以相關主體一項明確且積極的法定通知義務。HITECH之規範主體,基於其注意義務,應於得知或可得而知之日起算,60日內完成通知義務;視醫療資訊外洩之嚴重程度,其通知之對象亦有所不同,必要時應通知當地重要媒體向外發布訊息,HHS也將會以表單方式公布於其網站中。 整體而言,HITECH首次課以規範主體主動向可能受影響個人通知醫療資訊外洩事件之義務,此為HIPPA過去所未規範者;其次HITECH也突破HIPAA過往基於契約關係執行相關隱私權及安全規定之作法,於法規上直接對於洩露醫療資訊之相關主體課以刑責,強化了違反HIPAA隱私權與安全規定之法律效果。惟值得注意的是,受限於美國國會對HHS提出最終規則之期限要求,HHS現階段所提出的版本僅屬暫行規定,最終規定之最終確切內容仍有待確定,也值得我們持續觀察。
美國醫療保健領域對新興資料儲存系統理論「資料湖泊」(Data Lake)的應用在現今資訊流通快速蓬勃發展的時代,巨量資料(Big Data)帶來效率與生產力等龐大效益已無庸置疑。相較於將資料以「資料倉儲」(Data Warehouse)模式儲存,「資料湖泊」(Data Lake)被廣泛視為巨量資料快速演進的下一步。 美國的醫療保健領域為因應巨量資料發展並提升醫療保健系統的透明度與有責性,美國醫療保險與補助中心(Centers for Medicare & Medicaid Services, CMS)於2013年底建立CMS虛擬研究資料中心(Virtual Research Data Center, VRDC),讓研究員能夠以安全有效率的方式取得並分析CMS的龐大醫療保健資料。此種資料倉儲模式會對進入的資料預先分類,並整合為特定形式以指導後續分析的方式。缺點在於為讓資料更易於分享,會進行「資料清理」(data cleaning)以檢測及刪除不正確資訊並將其轉換成機器可讀取格式,各資料版本會被強制整合為特別形式,但資料清理和轉換的過程會導致明顯的數據流失,對研究產生不利的限制。有鑑於此,為更有效益的應用巨量資料,Pentaho首席技術官James Dixon提出新的資料儲存理論—資料湖泊(Data Lake),此概念於2011年7月21日首先被討論於美國《富士比》雜誌中,目前在英美國家公部門和民間企業間已被熱烈討論。 與Data Warehouse最大不同在於Data Lake可包含「未被清理的資料」(unclean data),保持其最原始的形式。故使用者可取得最原始模式的資料,減少資源上處理數據的必要,讓來自全國各政府機關的資料來源更易於結合。Data Lake主要有四點特性:1.以低成本保存巨量資料(Size and low cost)2.維持資料高度真實性(Fidelity)3.資料易取得(Ease of accessibility)4.資料分析富彈性(Flexible)。儲存超過百萬筆病患資料的加州大學歐文分校醫療中心(UC Irvine Medical Center)即以Hadoop架構為技術建立了一個Data Lake,該中心能以最原始的形式儲存各種不同的紀錄數據直到日後需要被分析之時,可協助維持資料的來源與真實性,並得以不同形式的醫療數據進行分析項目,例如患者再住院可能性的預測分析。 但相對的Data Lake在安全性和檢視權限上也有一定的風險,尤其是醫療保健領域,因為這意味著病患的資料在個資生命週期裡隨時可被取得,因此資訊的取得應被嚴密控制以維持各層級的安全與保障,在建立安全的Data Lake之前,必須審慎考慮誰有資訊檢視權限以及透過什麼媒介取得Data Lake中的資料等問題。
日本特許廳利用人工智慧審查專利與商標申請日本特許廳(Japan Patent Office,JPO)從去(2016)年12月開始,與NTT Data公司合作,使用人工智慧(Artificial Intelligence,簡稱AI)來系統化的回答有關專利問題,且依成果顯示,與原先運用人力回復的成果相當;JPO因此決定於今(2017)年夏天開始,將AI技術分階段應用於專利及商標的審查案,並期望能於下一會計年度(2018年4月至2019年3月),在審查業務中全面運用AI技術。 JPO指出,透過AI技術能有助於將專利及商標審查程序中繁冗的檢索程序簡化,以專利審查為例,可搜尋大量文件與檔案,進行專利先前技術檢索,以確保相關技術尚未獲得專利保護,同時也可以協助專利分類;此外,商標審查亦可利用AI之圖像辨識技術比對圖片及標誌,找出潛在的類似商標。 AI技術被證實能提升審查效率,並減輕審查人員檢索與比對部份的工作負擔,有助於抑制人工審查的長時間工作型態,根據2017年日本特許廳現況報告(特許庁ステータスレポート2017),於導入AI技術後,原本從申請到審查完成平均約2年左右之審查時間,期望可在2023年將審查期間降到14個月,讓日本成為智慧財產系統審查最快且品質最好的國家之一。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
歐盟發布新人工智慧規範,以風險程度判斷防止科技濫用歐盟執委會於2021年4月21日提出「人工智慧規則」(AI regulation)草案,成為第一個結合人工智慧法律架構及「歐盟人工智慧協調計畫」(Coordinated Plan on AI)的法律規範。規範主要係延續其2020年提出的「人工智慧白皮書」(White Paper on Artificial Intelligence)及「歐盟資料策略」(European Data Strategy),達到為避免人工智慧科技對人民基本權產生侵害,而提出此保護規範。 「人工智慧規則」也依原白皮書中所設的風險程度判斷法(risk-based approach)為標準,將科技運用依風險程度區分為:不可被接受風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)及最小風險(Minimal risk)。 「不可被接受的風險」中全面禁止科技運用在任何違反歐盟價值及基本人權,或對歐盟人民有造成明顯隱私風險侵害上。如政府對人民進行「社會評分」制度或鼓勵兒童為危險行為的語音系統玩具等都屬於其範疇。 在「高風險」運用上,除了作為安全設備的系統及附件中所提出型態外,另將所有的「遠端生物辨識系統」(remote biometric identification systems)列入其中。規定原則上禁止執法機構於公眾場合使用相關的生物辨識系統,例外僅在有目的必要性時,才得使用,像尋找失蹤兒童、防止恐怖攻擊等。 而在為資料蒐集行為時,除對蒐集、分析行為有告知義務外,也應告知系統資料的準確性、安全性等,要求高度透明化(Transparency obligations)。不只是前述的不可被接受風險及高風險適用外,有限風險運用中的人工智慧聊天系統也需要在實際和系統互動前有充足的告知行為,以確保資料主體對資料蒐集及利用之情事有充足的認知。 在此新人工智慧規範中仍有許多部份需要加強與討論,但仍期望在2022年能發展到生效階段,以對人工智慧科技的應用多一層保障。