根據專利資料庫公司IFI CLAIMS公佈2016年美國專利統計報告,IBM以8,088件專利再度蟬聯冠軍,其中多著重在人工智慧(artificial intelligence)、認知運算(cognitive computing)、及雲端(cloud)等技術領域,也有健康醫療相關專利。
近期IBM Health與美國食品藥品管理局(U.S. Food and Drug Administration)展開兩年期之合作研究,透過區塊鏈技術(blockchain)以安全且去中心化的方式進行數據共享,如:交換電子病歷、臨床試驗、基因數據、甚至過去難以取得的病患行動與穿戴裝置數據及物聯網(Internet of Things)數據等。
傳統上病患的病歷資訊存放於各診療單位或醫療機構,造成資訊管理效率及互通性較低,在區塊鏈技術的架構下,有效率的將大量且多樣的醫療數據進行彙整,並藉審查追蹤紀錄以防止竄改,提升病歷數據傳輸管理的可靠性及安全性。在如此多元化的醫療數據共享環境下,有助於醫療診斷、更將能促進產業發展。
此外,過去病患穿戴裝置所測得的日常生理數據,不管在數據取得、或將該些數據應用至臨床診斷上皆存有許多問題,如今區塊鏈技術將能提高物聯網數據資訊之整合性。依調查顯示,預計有80%新創組織採用區塊鏈技術於物聯網數據管理與應用上。
其他應用商機更包括居家監控、慢性疾病管理、藥物整合(medication reconciliation)及供應鏈管理等。IBM預估,至2017年底將會有16%的健康醫療機構採用以區塊鏈技術為架構的管理工具,並預測十年內採用比例將達72%。
本文同步刊登於TIPS網站(https://www.tips.org.tw)」
歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。 新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。 未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。
美國FTC以廣告不實的理由對二款具有診斷功能的醫療app開罰美國FTC於2月23日對於兩款聲稱具有診斷能力的醫療app進行裁罰,理由是這兩款app宣傳不實資訊,故應予下架並裁處罰鍰。 Melapp與Mole Detective兩款app,均係付費app,售價大約在1.99至4.99美元不等,宣稱只要使用者從不同角度拍下自己身上的痣,app就能夠判斷這個痣屬於黑色素瘤(Melanoma,為一種罕見的皮膚癌類型,且惡性程度高)的機率,app將罹患黑色素瘤的風險區分為:高、中、低三級。但FTC認為業者的說法並沒有足夠的臨床依據加以證明,因此涉及廣告不實的行為。截至目前為止,Melapp與Mole Detective的開發業者都已經繳納罰鍰,但發行商L-Health拒絕繳納這項罰款,因此FTC的委員會在經過表決之後,決定在2015年2月23日向北伊利諾州地方法院提起訴訟,請求法院執行此項由FTC作成的裁罰。 具有診斷效果的app在美國其實開發已久,但在此案前,尚未見到行政機關對之積極的加以管制,此次由FTC出面對於廣告不實的部分加以裁罰,而非由主管藥物、醫材的FDA進行裁罰,或許與眾人的想像不同,但從FTC的這個行動,我們也發現美國政府已開始關切此類宣稱具有醫療診斷效果的app,醫療app未來的發展情勢將會如何,特別是本案中將被FTC起訴的L-Health會不會再另行提起其他法律爭訟,以確保其產品在市面上的合法性?毋寧是未來世界各地醫療app發展的重要參考資訊。
國際因應智慧聯網環境重要法制研析-歐盟新近個人資料修法與我國建議 日本發布以人為本AI社會原則日本內閣於2018年6月15日決議組成跨部會之統合創新戰略推進會議,並於2019年3月29日發布AI戰略,其中的倫理面向為以人為本之AI社會原則(下稱AI社會原則),希冀藉有效安全的活用AI,推動「AI-Ready 社會」,以實現兼顧經濟發展與解決社會課題的「Society5.0」為最終目標。 為構築妥善應用人工智慧的社會,AI社會原則主張應尊重之價值理念如下: (一) 尊重人類尊嚴的社會:AI應作為能激發人類發揮多樣能力和創造力的工具。 (二) 多元性和包容性的社會(Diversity & Inclusion):開發運用AI以共創多元幸福社會。 (三) 永續性的社會(Sustainability):透過AI強化科技,以創造能持續解決社會差距與環境問題的社會。 而AI社會原則核心內容為: (一) 以人為本:AI使用不得違反憲法或國際保障之基本人權。 (二) AI知識(literacy)教育:提供必要的教育機會。 (三) 保護隱私:個人資料的流通及應用應妥適處理。 (四) 安全確保:把握風險與利益間之平衡,從整體提高社會安全性。 (五) 公平競爭確保:防止AI資源過度集中。 (六) 公平性、說明責任及透明性任。 (七) 創新:人才與研究皆須國際多樣化,並且建構產官學研AI合作平台。