隨著英國國家健康服務(National Health Service, NHS)的改革,衛生和社會照護法(The Health and Social Care Act 2012)第九部分第二章,規範成立英國衛生與社會照護資訊中心(The Health and Social Care Information Centre, HSCIC)作為政府醫療資訊公開、整合與管理單位,此項規定於今(2013)年4月1日生效。
HSCIC並非正式的政府部會,而屬於執行行政法人(Executive Non Departmental Public Bodies),向衛生部長(Secretary of State for Health)負責,其職責除了蒐集、分析和傳播國家資料暨統計資訊以外,同時亦進行國家各層級的醫療資訊基礎設施的整合,作為醫療資訊數據公開的門戶;此外,HSCIC利用其行政法人的特性,將醫療組織視為客戶,提供不同的服務和產品,以協助其達到所需的資訊管理需求。透過HSCIS對於資訊的整合再公開,有助於在增進政府資訊透明性的同時,亦保障了資訊流動的效率和安全性。
其中HSCIC對於敏感性資料之應用,特別設立資料近用諮詢小組(Data Access Advisory Group, DAAG)予以處理。資料諮詢小組是每月定期由HSCIC所主持的獨立運作團體,須向HSCIC委員會負責。當HSCIC面臨敏感性資料或可識別個人資料之應用(包括是為了研究目的,和為了促進病人的醫療照護所需之應用)時,即交由資料近用諮詢小組會議來討論,以確保揭露該項資訊的風險降到最低。
從HSCIC的組織任務能輕易地發現其具有強大整合醫療資訊之功能,其未來發展勢必與過往飽受爭議的醫療資訊應用息息相關,因此相當值得我們持續觀察HSCIC的後續動態。
「數位藥丸(digital pill)」顧名思義就是將藥物與數位科技結合,藥丸上載有感測器(sensor),在進入人體後傳輸訊號至病人身上的訊號接收器貼片,相關資訊再被傳送給醫療人員。由於許多研究顯示約有半數病人並不會完全遵照醫師指示服藥,使治療效果不彰,並造成醫療資源之浪費。而電子藥丸有助需長期頻繁用藥的族群定時服藥與協助醫療機構追蹤病人服藥狀況,並在臨床試驗中持續觀察病患用藥後的生理反應。 日前美國食品藥物管理署(Food and Drug Association)已接受Proteus Digital Health公司之上市審核申請,不久之後人們將有望享受到此數位藥丸帶來的便利。不過其亦存有一些疑慮以及待克服的技術問題,例如:個人資料之保護措施、控制藥物釋放之系統故障或遭惡意攻擊時之應變等等問題。同時,雖然許多人都認為數位藥丸對病人之疾病控制有利,但是病人之拒絕治療權卻可能因而犧牲,雖然醫生不能強迫病人服藥,但法院強制處分常會牽涉特定的治療程序,此時若病人拒絕服藥,其假釋可能被撤銷,該技術將可能成為一個監視的手段。
Facebook 捲入商標糾紛Facebook公司因使用「timeline」一詞,而被設立於芝加哥的Timelines公司提商標侵權訴訟乙案,目前Facebook公司正積極準備進一步之辯護。 Timelines公司係於2011年9月控告Facebook侵害其所有之「timeline」商標權,且違反公平競爭法。Facebook則反訴Timelines公司,主張「timeline」為一般通用名稱,應不受商標法保護,故請求確認該商標無效且無侵權事實。 美國地方法院先前裁定Facebook無法提出證據以證明Timelines公司之商標為一般通用名稱。而原定2013年4月22日在芝加哥聯邦法院開庭之上訴程序,目前已延期,但法院並未明確說明延期原因。 Facebook公司主張「timeline」是一種可使人群組織並展現對其最有意義的事件與活動之工具,其功用係將記憶呈現為依時序整理,且可查詢之個人記述。Timelines公司則為一個,可讓使用者記錄並分享歷史經歷的網站。 Facebook在線上廣告市場上仍有巨幅成長的機會,因其具有廣泛的使用者基礎,且有跨時追蹤個人細節之能力,故在線上廣告市場中成為一股令人望之生畏的強大力量。 據報導,若將來判決對Timelines公司有利,則其打算請求總金額相當於Facebook因「timeline所取得之廣告收入」之損害賠償。由於至最終之審理結果出爐據信仍需要很長時間,故在現況下不排除庭外和解的可能性。
美國高速公路運輸安全局(NHTSA)發佈針對車輛對車輛間溝通的研究報告國家高速公路運輸安全局(NHTSA)發佈即將針對車輛與車輛間通訊訂立規則的訊息,以管理車對車之間(V2V)通訊技術,V2V技術最主要著眼在於避免碰撞,根據調查百分之94的車禍事故都有人為因素牽涉其中,V2V技術可以讓車輛有效的認知碰撞的情況與潛在威脅。V2V技術仰賴的是鄰近車輛之間的通訊溝通並交換訊息,以警告駕駛潛在的導致碰撞安全威脅,例如:V2V可以警告駕駛前車正在煞停,所以候車必須隨之減速以免碰撞,或是警告駕駛在經過十字路口的時候處於不安全的情況,因為有一輛看不見的車輛正以高速朝路口靠近。V2V通訊技術使用精密的短距離通訊技術以交換車與車子之間的基本訊息,諸如:位置、速度、方向已決定是否要警告駕駛以避免碰撞。本項規則制訂的提案可謂是數十年來NHTSA與各部門間合作努力的成果,包含汽車產業界、各州運輸交通部門、學術機構以建立共識的標準。NHTSA的提案當中規制運用在所有輕型車輛V2V技術使用無線電傳輸協定與光譜頻寬總稱為精密短距通訊技術(DSRC)。這項立法規制要求所有的車輛都應該要透過標準化技術講共同的語言,並且要求所有車輛均要納入安全與隱私保護的措施。本次即將管制的車輛包括一般轎車、多功能車(MPV)、卡車、公車,車輛在4536公斤以下的車輛未來必須配備V2V的通訊系統。 ●交換資訊部分 僅交換基本安全訊息,其中包含車輛的動態訊息諸如行進方向、速度、位置。這些基本的安全訊息每秒交換高達10次,裝有V2V裝置的車輛將保留這些訊息,去評判是否有碰撞的威脅。如果系統覺得有必要,將立即發出訊息警告駕駛採取必要措施避免立即碰撞。 ●V2V未來可能應用 ■十字路口動態輔助:車輛進入十字路口前,如果會發生碰撞會加以警示。 ■左轉輔助:駕駛一旦左轉會撞上來車的時候,特別在於駕駛視線被擋住的情況下,會加以警示。 ■警急電子煞車燈:同方向行進車輛,前車忽然減速的情況下,V2V技術可以允許使經過透視前車的情況下,知道駕駛目前正在減速,所以可以針對視線外的急煞車預先因應。 ■前端碰撞警示:前端碰撞警示將警告駕駛即將到來的撞擊,避免撞擊前車。 ■盲點警示與變換車道警示:車輛變換車道的時候系統將警告位於盲點區域的車輛即將靠近,避免在變換車道的時候發生碰撞。 ■超車警示:警告駕駛超車並不安全,因為對向車道正有車輛往此方向前進。 ●面對網路攻擊 ■設計訊息認證方案,確保交換訊息時的安全性。 ■每一項交換的訊息均會經過偵測避免惡意攻擊。 ■惡意攻擊的回報機制:諸如身份錯誤配置的訊息、惡意車輛阻擋V2V訊息。 ●隱私保護 在設計最初期即導入V2V僅允許分享蒐集通用的安全資訊,對於個人或其他車輛的資訊不能加以蒐集與傳輸。 目前NHTSA將針對本項提案蒐集公眾意見(預計將進行九十天),並審核公眾所提交意見是否可行,在發佈最終的規則。
歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。