本文為「經濟部產業技術司科技專案成果」
歐盟執委會於2020年11月25日公布「歐洲資料治理規則」(Proposal for a Regulation on European data governance (Data Governance Act))草案。本立法草案係延續同年2月發布「歐洲資料戰略」(European data strategy)所提出之立法規劃,針對該戰略所揭示的資料治理政策願景,於制度面予以明文化。而本草案亦為該戰略發布後,首次提出的具體性措施。其制定的主要目的,在於透過強化資料中介機構(data intermediaries)的公信力、以及優化歐盟整體的資料共享機制,來提升資料的可取得性(availability)。 依草案條文內容,其主要立法面向如下: (1)界定本法的立法目的,在於規範歐盟內部再利用公部門所持有之特定類型資料的條件,確立資料共享服務的通報與監督框架,並針對基於利他(altruistic)目的蒐集處理資料之實體(entities),建構自願註冊的制度;另一方面則進行本法的名詞定義。 (2)公部門資料再利用機制:整體性規範由公部門所持有、但涉及商業機密、智慧財產權、個資等之資料再利用的一致性標準。其以保護既有的營業秘密、個資、智財權等為前提,確立該些資料再利用的標準作法(如原則以非專屬形式再利用、可收取合理費用)。有意再利用上述資料的公部門,應於技術面保護其隱私與機密性。 (3)針對資料共享服務供應商的通報機制:要求提供資料共享服務的供應商,於正式對外提供其服務前,應先向各成員國的權責機關通報其業務,藉以增加外界對共享個資與非個資之資料機制的信賴度,同時降低資料共享的交易成本。同時,資料共享服務供應商於資料交換應保持中立,不能為其他目的使用資料;其共享服務應以開放及協作的方式進行,並優化自然人或法人查閱與控制其資料的環境,藉以強化個資自主權。 (4)資料利他主義(data altruism)的明文化:定義非營利、具普遍性共同目標之組織,得向歐盟註冊成為資料利他主義組織。透過此認證制度,增加組織公信力,以推動個人或公司出於公共利益,自願提供資料。同時,授權歐盟執委會可制定通用之歐洲資料利他主義同意書(European data altruism consent form),減少個別收集資料使用同意書之成本。 (5)成員國資料共享權責機關之職責:其應公正、透明、一致、及時履行其職責,監督與實施資料共享服務供應商與資料利他主義組織的通報與註冊機制。例如,其有權要求資料共享服務供應商提交必要訊息,以確保其作為是否符合本法要求。同時,權責機關成員不得為資料共享服務的供應商。 (6)歐洲資料創新委員會(European Data Innovation Board):此為一專家小組之設置要求,負責協助成員國權責機關之作法,遵循資料治理法所訂標準。
全美達向英特爾提出專利訴訟Transmeta files suit against Intel加州,聖荷西(San Jose)-雖然已於去年(2005)放棄以x86為基礎之微處理器業務,全美達(Transmeta Corp.)日前宣告英特爾(Intel Corp.)侵害其專利權,並且已經對英特爾提起訴訟。 全美達向美國Delaware地方法院提起訴訟,主張英特爾侵害全美達多達10項的專利權。根據全美達表示,這些專利涵蓋了電腦架構以及電源效能技術。此外,該訴訟案指控英特爾藉由製造以及販賣多種微處理器產品而已經侵害或正在侵害前述之專利權,該等微處理器產品至少包含英特爾的Pentium III、Pentium 4、Pentium M、Core以及Core 2等產品線。並且,全美達請求法院禁止英特爾繼續銷售侵權產品,並提供金錢賠償,包括為侵權產品支付合理的專利費、三倍的賠償金和律師費。 全美達執行副總裁John O'Hara Horsley表示,全美達已經發展出完整且強大的智慧財產權組合,以掌握並且保護發展微處理器技術的重要資產。此外,John O'Hara Horsley也表示,英特爾在主要處理器產品線中使用了不少全美達的創新技術,該公司是在向英特爾要求合理授權費卻失敗之後,決定走上法律程序。
全美各州醫療委員會聯合會發布人工智慧(AI)治理指引,並要求醫師為AI之利用結果負最終責任全美各州醫療委員會聯合會(The Federation of State Medical Boards, FSMB)於2024年4月發布「引導人工智慧以負責任與符合倫理方式融入臨床實務」(Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice)指引,明確概述醫師於利用AI協助提供照護時可採取之步驟,以履行其倫理與專業職責,期能藉此降低對患者造成傷害之風險;本指引之特色在於,其要求醫師為AI之利用結果負最終之責任。 FSMB 向各州醫療委員會與其他利害關係人所提供之原則與建議如下,以支持對包含AI之臨床照護進行負責任與符合倫理之監管: (1)透明度與揭露(Transparency and Disclosure): 應要求維持於醫療照護領域使用AI之透明度;各州醫療委員會應制定明確之指導方針,向患者揭露AI之使用情況,其有助於患者與醫師之理解,但不會造成不必要之行政負擔;FSMB 應制定文件,詳細說明最常用之AI工具之功能與局限性,以協助醫療委員會發揮監管者之角色,並應制定常見問題與最佳實務文件,作為提供照護時利用AI方面關於透明度之資源。 (2)教育與理解(Education and Understanding): FSMB及其於醫學教育界之合作夥伴,應為醫師、醫療委員會與患者,確認有關醫療照護中AI之結構化教育資源,該等資源應包括協助瞭解AI如何運作、其優點、潛在風險以及對患者照護之影響。 (3)負責任之使用與問責(Responsible Use and Accountability): 開發人員應協助醫師瞭解何時、以及如何於患者之照護中利用AI工具;選擇AI工具支援臨床決策之醫院系統、保險公司或其他機構應向醫師提供有關AI工具之教育、存取各工具之性能報告,並應設計一個定期檢視工具功效的流程;AI工具應以得使各州醫療委員會能稽核與理解之方式設計,以便適當評估依賴工具輸出結果之醫師是否偏離照護標準(standard of care);FSMB 應支持各州醫療委員會針對臨床醫師如何負責任、可問責地使用AI之解釋。 (4)公平性與近用(Equity and Access): 應努力確保所有患者皆能公平地近用AI帶來之好處;FSMB與各州醫療委員會致力於以下原則:醫療人員所提供之照護是公平的、且不受基於種族、民族或其他形式歧視之偏見影響;FSMB應與其他利害關係人一起理解並解決演算法偏差問題。 (5)隱私與資料安全(Privacy and Data Security): AI工具之開發者必須實施嚴格之保護措施,以保護AI開發與評估時所利用之患者資料,通常情況下應告知患者資料如何被利用,且FSMB應與行業利害相關人一起制定AI系統使用與散布患者資料之政策,包括針對AI開發或評估中使用之患者資料之最低資料保護措施。 (6)監督與監管(Oversight and Regulation): 各州醫療委員會必須保留對於提供醫療服務時,不當應用AI工具之醫生進行紀律處分之權力,其包括問責議題之考慮,特別是當AI系統變得更加自主時;各州醫療委員會應審查其管轄範圍內如何對「醫療行為」(practice of medicine)進行法律定義,以確保對提供醫療照護、人力或其他方面進行持續之監管監督。 (7)法律法規之持續審查與調整(Continual Review and Adaptation of Law and Regulations): 各州醫療委員會應在FSMB之支持下,隨著AI之不斷發展,持續檢視與更新與AI相關之指引與法規;政策制定者應考慮AI對基本法律原則的影響,例如醫療行為之定義以及AI對企業醫學實務之影響;FSMB 應建立一個專門團隊,持續檢視與調整AI指引與法規。 本指引指出,AI工具通常無能力取代醫師之專業判斷、道德責任或對州醫療委員會之責任,醫療行為中之關鍵職業責任始終為確保診斷、臨床決策與建議不存在偏差。與用於診斷或治療疾病之任何其他工具或鑑別方法相同,醫療專業人員有責任確保基於證據結論之準確性與真實性,因此於將AI系統用於患者照護前,醫師應以合理努力識別與解決偏差(如虛假或不準確之資訊等)。
美國紐約州通過《政府自動化決策監督法》規範州政府使用自動化決策系統紐約州州長於2024年12月21日簽署《政府自動化決策監督法》(Legislative Oversight of Automated Decision-making in Government Act, LOADinG Act),用以規範紐約州政府使用人工智慧自動決策系統的方式以及相關義務,成為美國第一個通過這類法律的州。 該法所定義之「自動化決策系統」係指任何使用演算法、計算模型或人工智慧技術,或其組合的軟體,用於自動化、支援或取代人類決策;這類系統亦包括應用預定義規則或機器學習演算法進行資料分析,並在自動產生結論、建議、結果、假設、預測。 針對政府使用自動化決策系統之情形,《政府自動化決策監督法》有三大重點:人類監督、影響評估以及資訊揭露。 一、人類監督 州政府在提供社會福利資源或其他可能實質影響人民權益與法定權利的業務時,除非是在「有意義的人工審查」下進行操作,否則不得使用自動化決策系統。同時,此法也強調,州政府亦應確保其員工現有權利不會受到自動化決策系統的影響,例如不得因此受到解雇、調職或減薪等。 前述有意義的人工審查,係指對自動化決策流程進行審查、監督及控制的工作人員,必須是受過訓練、對該系統有一定之了解且擁有權力干預、變更系統最終決策的人。 二、影響評估 州政府如欲使用自動化決策系統,應進行影響評估且每兩年應至少重新評估一次;系統在進行重大更新前,也應重新進行影響評估。若評估發現系統產生歧視性或有偏見的結果,機關必須停止使用該系統及其生成的資訊。 影響評估的項目除了性能、演算法及訓練資料外,亦應進行準確性、公平性、偏差歧視、以及個人資料安全等相關測試。 三、資訊揭露 影響評估需在系統實施前至少30天提交給州長與州議會,並在相關機關的網站上公布;僅機關在特殊情況下(例如涉及公共安全考量),州政府可針對報告揭露之資訊進行必要的刪改,但必須說明做出此決定的原因。此外,州政府亦需於本法通過後向州議會提交報告,說明包括系統描述、供應商資訊、使用開始日期、用途、人類決策的支持或取代情況、已進行的影響評估摘要等。 本法強調對人工智慧技術的審慎應用,特別關注其對勞工權益的影響。該法明確規定,禁止在無人類監督的情況下,使用自動化系統進行失業救濟或育兒補助等福利的審核決策,並保障州政府員工不因人工智慧的實施而減少工作時間或職責。此類規定在現行立法中較為罕見,顯示出立法者對勞工權益的高度重視。該法的實施效果及影響,值得未來持續保持關注。