針對告知消費者個資使用方式以及確保消費者對個資利用之參與及意見表達,英國通訊傳播管理局(The Office of Communications, Ofcom)於2015年6月17日公布委託德國顧問公司WIK-Consult進行之「個資與隱私」(Personal Data and Privacy)報告。報告指出,雖然法規要求在處理個資前必須獲取相關消費者的告知同意,但事實是消費者並未在線上實際閱讀隱私權政策條款,這個問題則由於智慧聯網大幅促進了裝置間的互聯性與資料的流通而更形嚴重。報告表示,雖然資料流通的本質不變,但僅因互聯裝置數量倍增就足以讓可近用與分析的資料呈等比級數成長,要在線上對這些遍及生活各層面的資料進行追蹤也就難上加難。
對於這個起因於智慧聯網興起的問題,報告認為政府可能必須利用更複雜的契約關係加以規範。因為隱私權政策要能透明,必須指出究竟是哪些人會在何時以哪種方式為了何等目的去近用相關資料,但這勢必會讓隱私權政策條款更加冗長,這不但與隱私權政策盡可能應簡潔易懂相違,消費者也更不可能實際去閱讀。此外報告也指出,機台或裝置在智慧聯網下能夠在幾乎沒有人為介入的情況下進行溝通,此將大幅壓縮消費者能夠得知個資蒐集與使用方式的機會,智慧聯網也讓消費者可能根本沒有察覺其正在使用的裝置實際上已經與網路連線。另一方面,隨著互聯複雜性的大幅提高,有意或無意揭露個資也將帶來更多的潛在不利影響。
本文為「經濟部產業技術司科技專案成果」
歐盟執委會(European Commission)於2022年3月30日提出了一項「目標地球倡議(the Destination Earth initiative)」,希望建立「目標地球系統」(Destination Earth system,以下簡稱DestinE系統),作為實踐歐洲「綠色協議」(European Green Deal)、「數位化戰略」(EU’s Digital Strategy)此兩項計畫的一部分。 DestinE系統係旨在全球範圍內開發一個高度精確的地球數位模型,透過整合、存取具價值性的資料與人工智慧進行資料分析等技術,以監測、建模和預測環境變化、自然災害和人類社會經濟之影響,以及後續可能的因應和緩解策略。未來希望將高品質的資訊、數位服務、模型預測提供予公部門運用,接著逐步開放給科學界、私部門、公眾等用戶,將有助於應對氣候變遷、實現綠色數位轉型,並支持塑造歐洲的數位未來。 為實現此一項目,歐盟執委會預計在2024年中前由數位歐洲計畫(Digital Europe Programme)投入1.5億歐元,並與科學、工業領域單位合作,包含歐洲航太總署(European Space Agency, ESA)、中期天氣預報中心(European Centre for Medium-Range Weather Forecasts , ECMWF)、氣象衛星開發組織(European Organisation for the Exploitation of Meteorological Satellites , EUMETSAT)等,透過建立核心平台逐步發展為DestinE系統,稱之為數位分身(Digital Twins)。 是以,DestinE系統將允許用戶存取地圖資訊(thematic information)、服務、模型、場景、模擬、預測、視覺化,其系統主要組成分為以下三者: 從而,DestinE系統用戶將能夠存取大量地球系統和社會經濟資料並與之互動,該系統可有助於: 核心服務平台(Core Service Platform)--該平台將基於開放、靈活和安全的雲端運算系統,提供決策工具、應用程式和服務,兼具大規模資料分析與地球系統監測、模擬和預測能力的數位建模和開放模擬平台。同時,也將為DestinE用戶提供專屬資源、整合數據、開發各自的應用程式。該平台服務的採購、相關維運將由歐洲航太總署負責。 DestinE資料湖泊( DestinE Data Lake)--資料湖泊將提供核心服務平台、數位分身所需的獨立專用資料存取空間,並提供多元的資料來源和有效管理與DestinE系統用戶共享的資料,同時提高、擴大資料處理和服務。其將由歐洲氣象衛星開發組織負責營運。 數位分身(Digital Twins)-- DestinE 數位分身將依據不同的地球科學領域主題進行即時觀測、分類,例如極端自然災害事件、因應氣候變遷、海洋或生物多樣性,最終目標是整合這些數位複製內容(digital replicas),形成、建立全面性的地球數位分身綜合系統。因此,DestinE 數位分身將為用戶提供量身打造的高品質資料,用於用戶特定的場景模擬開發、決策。而該DestinE 數位分身將由歐洲中期天氣預報中心進行開發。 從而,DestinE系統用戶將能夠存取大量地球系統和社會經濟資料並與之互動,該系統可有助於: 根據豐富的觀測資料集,對地球系統進行準確、和動態的模擬,例如:關注與社會相關的領域、氣候變化的區域影響、自然災害、海洋生態系統或城市空間。 提高、加強預測能力並發揮最大化影響,例如:保護生物多樣性、管理水資源、可再生能源和糧食資源,以及減輕災害風險。 支持歐盟相關政策的制定和實施,例如:監測和模擬地球發展(陸地、海洋、大氣、生物圈)與人為干預,藉以評估現有環境政策和立法措施的影響,作為制定未來政策的依據。或預測環境災難、衍生的的社會經濟危機,以挽救生命並避免大規模經濟衰退。抑或透過開發和測試場景,實現永續發展。
美國基改食品標示新發展-強制標示與否的拔河 受美國聯邦最高法院Alice案影響,各級法院傾向宣告商業方法之電腦軟體專利無效依據美國專利法第101條規定,任何人發明或發現一新的、有用的程序、機器、製造物、組合物,或做出任何新的或有用的改良,並符合專利法所定之其他條件或要求,即可以取得專利權;然而,今年(2014年06月19日)美國聯邦最高法院於Alice Corp. v. CLS Bank International一案,認定原告透過第三方中介電腦系統 促進交易雙方交換資訊,以降低交易風險之技術,只是將抽象概念(第三方中介交易之商業方法)以一般方式於電腦軟體運行,故無法取得專利。 司法實務上,各級法院開始遵循此一判決先例,宣告與此性質類似之專利無效。例如:於Buysafe, Inc. v. Google, Case No. 2012-1575 (Fed. Cir. Sept. 3, 2014)一案,法院認定原告用來擔保線上交易安全之技術,只是將擔保契約關係此抽象概念運用於網路,故無法取得專利;於Loyalty Conversion Systems v. American Airlines, Inc., Case No. 2:13-CV-655 (E.D. Tex. Sept. 2, 2014)一案,法院認定原告以獎勵點數換取消費點數之技術,只是將貨幣交換此抽象概念透過電腦進行,故亦無法取得專利。 由各級審法院判決可以觀察到,以商業方法(抽象概念)為內容的電腦軟體專利有逐漸被宣告無效的趨勢,尤其是涉及到:縱使不以電腦軟體運行,但似乎亦可完成的交易方法。由此可見,各級法院對於專利法第101條已經開始採取較嚴格的審查標準。未來無論在專利申請或專利訴訟時,都宜一併考量Alice Corp. v. CLS Bank International案所帶來的影響。
全美各州醫療委員會聯合會發布人工智慧(AI)治理指引,並要求醫師為AI之利用結果負最終責任全美各州醫療委員會聯合會(The Federation of State Medical Boards, FSMB)於2024年4月發布「引導人工智慧以負責任與符合倫理方式融入臨床實務」(Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice)指引,明確概述醫師於利用AI協助提供照護時可採取之步驟,以履行其倫理與專業職責,期能藉此降低對患者造成傷害之風險;本指引之特色在於,其要求醫師為AI之利用結果負最終之責任。 FSMB 向各州醫療委員會與其他利害關係人所提供之原則與建議如下,以支持對包含AI之臨床照護進行負責任與符合倫理之監管: (1)透明度與揭露(Transparency and Disclosure): 應要求維持於醫療照護領域使用AI之透明度;各州醫療委員會應制定明確之指導方針,向患者揭露AI之使用情況,其有助於患者與醫師之理解,但不會造成不必要之行政負擔;FSMB 應制定文件,詳細說明最常用之AI工具之功能與局限性,以協助醫療委員會發揮監管者之角色,並應制定常見問題與最佳實務文件,作為提供照護時利用AI方面關於透明度之資源。 (2)教育與理解(Education and Understanding): FSMB及其於醫學教育界之合作夥伴,應為醫師、醫療委員會與患者,確認有關醫療照護中AI之結構化教育資源,該等資源應包括協助瞭解AI如何運作、其優點、潛在風險以及對患者照護之影響。 (3)負責任之使用與問責(Responsible Use and Accountability): 開發人員應協助醫師瞭解何時、以及如何於患者之照護中利用AI工具;選擇AI工具支援臨床決策之醫院系統、保險公司或其他機構應向醫師提供有關AI工具之教育、存取各工具之性能報告,並應設計一個定期檢視工具功效的流程;AI工具應以得使各州醫療委員會能稽核與理解之方式設計,以便適當評估依賴工具輸出結果之醫師是否偏離照護標準(standard of care);FSMB 應支持各州醫療委員會針對臨床醫師如何負責任、可問責地使用AI之解釋。 (4)公平性與近用(Equity and Access): 應努力確保所有患者皆能公平地近用AI帶來之好處;FSMB與各州醫療委員會致力於以下原則:醫療人員所提供之照護是公平的、且不受基於種族、民族或其他形式歧視之偏見影響;FSMB應與其他利害關係人一起理解並解決演算法偏差問題。 (5)隱私與資料安全(Privacy and Data Security): AI工具之開發者必須實施嚴格之保護措施,以保護AI開發與評估時所利用之患者資料,通常情況下應告知患者資料如何被利用,且FSMB應與行業利害相關人一起制定AI系統使用與散布患者資料之政策,包括針對AI開發或評估中使用之患者資料之最低資料保護措施。 (6)監督與監管(Oversight and Regulation): 各州醫療委員會必須保留對於提供醫療服務時,不當應用AI工具之醫生進行紀律處分之權力,其包括問責議題之考慮,特別是當AI系統變得更加自主時;各州醫療委員會應審查其管轄範圍內如何對「醫療行為」(practice of medicine)進行法律定義,以確保對提供醫療照護、人力或其他方面進行持續之監管監督。 (7)法律法規之持續審查與調整(Continual Review and Adaptation of Law and Regulations): 各州醫療委員會應在FSMB之支持下,隨著AI之不斷發展,持續檢視與更新與AI相關之指引與法規;政策制定者應考慮AI對基本法律原則的影響,例如醫療行為之定義以及AI對企業醫學實務之影響;FSMB 應建立一個專門團隊,持續檢視與調整AI指引與法規。 本指引指出,AI工具通常無能力取代醫師之專業判斷、道德責任或對州醫療委員會之責任,醫療行為中之關鍵職業責任始終為確保診斷、臨床決策與建議不存在偏差。與用於診斷或治療疾病之任何其他工具或鑑別方法相同,醫療專業人員有責任確保基於證據結論之準確性與真實性,因此於將AI系統用於患者照護前,醫師應以合理努力識別與解決偏差(如虛假或不準確之資訊等)。