歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。
歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。
本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式:
一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。
二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。
三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。
AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。
歐盟執委會於2022年11月21日通過《歐洲互通法案》(Interoperable Europe Act)(下稱本法案),以強化歐盟公共部門的跨境互通與合作,加速數位化轉型。跨境互通將使歐盟及其成員國為公民與企業提供更優良的公共服務,並預計為公民節省550萬至630萬歐元的成本;為與公共行政有業務上往來的企業節省57億至192億歐元的成本。 《歐洲互通法案》為歐盟的公部門建立一套合作模式,該模式有助於建立安全的跨境資訊交換及可互通的數位共享解決方案(如開源軟體、指引、IT工具等),使彼此之間合作更有效率,進而帶動公部門創新。舉例而言,Covid-19疫情期間,互通性政策使醫院間得共享重症監護病床之數量資訊,以提供人民最即時的醫療資源。本法案架構如下: 1.結構化的歐洲合作:由歐盟成員國和區域、城市共同合作,制定跨境互通的共同戰略議程,並得到公共和私人的支持,實施互通性解決方案與進度監控。 2.強制性評估:評估跨境互通之IT系統對歐盟的影響。 3.共享和再利用解決方案:透過歐洲入口網(Interoperable Europe Portal)及社群合作的一站式平台,提供支持共享與再利用的解決方案(如開源軟體)。 4.提供創新和相關支持措施:包括監理沙盒(sandboxes)、GovTech計畫及訓練措施等。 自2010年以來,歐洲互通性框架(European Interoperability Framework, EIF)一直作為歐盟互通性政策的主要參考依據,惟始終不具有約束力。本法案將使EIF成為單一參考依據,使歐盟公共服務部門擁有互通性政策,並未來互通性合作框架將由歐洲互通委員會(Interoperable Europe Board)指導,該委員會由歐盟成員國、歐盟執委會、地區委員會(Committee of the Regions)及歐洲共同體經濟和社會委員會(European Economic and Social Committee)之代表組成。 可互通的數位公共服務對建構數位單一市場至關重要,除提升經濟效益和行政效率外,案例研究亦表明,互通性對提高政府信任可產生正面積極影響,同時本法案充分尊重現有的隱私與資料保護規則,以符合歐盟創建以人為中心的規範方法,提升個人基本權利。
2007年9月25日專利判決:Sprint v. VonageSprint,美國第三大電話公司,於2005年向Kanas聯邦法院提起Vonage侵害其七件有關通訊科技的專利。2007.9.25聯邦法院判決:有關Sprint 控告 Vonage通訊專利侵害案,本案陪審團認為,Vonage為?意侵害Sprint專利權,即本案法官若同意陪審團意見,將可判決三倍的賠償金額。而本案判決,網路電話公司—Vonage Holdings Co. 應賠償Sprint Nextel 6千9百50萬美元,及未來盈收百分之五之權利金。 Vorgae 以書面聲明將對聯邦法院此次判決提出上訴;並將變更產品設計以避免使用本案爭議技術。Vonage法務長說明“對於陪審團不認同’Vonage的技術與Sprint的技術是有差異的’甚感失望;而Vonage首要目標是提供給客戶高品質、高穩定的數位電話服務”。 Sprint發言人—Matt Sulivan 說明,Sprint擬向地方法院申請禁制令,禁止Vonage使用Sprint之專利技術。 本件判決為2007年第四大專利案件判決。 此判決為今年度第二個不利於Vonage的判決。今年三月Virginia法院認定Vonage之網路電話系統侵害Verizon三項專利。此判決判定之賠償金為5千8百萬美元及未來盈收百分之5.5之授權金。 分析師認為,VoIP已成為主流話題,Vonage以網路電話為主要業務的公司,未來將面對更多的問題及付出更多的金錢。
歐盟執委會發布《2019歐盟產業研發投資計分板》,美國和歐盟為世界研發投資最主要地區歐盟執委會(European Commission, EC)於2019年12月18日發布《2019歐盟產業研發投資計分板》(The 2019 EU Industrial R&D Investment Scoreboard)。產業研發投資計分板是歐盟每年出具一次的報告,2019年計分板報告包含2500家在2018-2019年間投入最多研發資金的企業,分別位於全球44個國家/地區,每一企業的研發投資金額超過3000萬歐元,總計約為8234億歐元,為全球研發支出的90%。在這2500家企業中,551家來自歐盟公司,為投資總額的25%;769家來自美國,為投資總額的38%;318家來自日本,佔13%;507家中國公司,佔12%。 報告中指出,2018年企業研發投資總額較2017年增加8.9%,主要是中國在全球研發資金投入比例不斷增加。另外,研發投資高度集中於大型企業;在這2500家企業中,前10大、前50大企業分別佔研發總額的15%和40%。前50大企業中,最多者為美國企業22家和歐盟企業17家。再從研發投資領域觀察,前三大領域分別為資通訊產業(38.7%)、健康(20.7%)和汽車產業(17.2%),佔總量的76.6%。但每一個國家重視的領域不盡相同,例如歐盟投資20%在資通訊、21.6%在健康、31%汽車,而美國的資通訊研發投資佔了52.8%、26.7%在健康,僅有7.6%在汽車。 再從個別企業研發投資排名來看,前四大企業分別為Alphabet、Samsung、Microsoft和Volkswagen。另外,報告統計在過去的15年中,有8家企業在全球研發投資金額排名中上升了70名以上,分別為:Alphabet、華為、蘋果、Facebook、阿里巴巴、Celgene、Gilead Sciences和德國馬牌;也代表這15年間資通訊、生技與汽車產業發展的重要性。
全美各州醫療委員會聯合會發布人工智慧(AI)治理指引,並要求醫師為AI之利用結果負最終責任全美各州醫療委員會聯合會(The Federation of State Medical Boards, FSMB)於2024年4月發布「引導人工智慧以負責任與符合倫理方式融入臨床實務」(Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice)指引,明確概述醫師於利用AI協助提供照護時可採取之步驟,以履行其倫理與專業職責,期能藉此降低對患者造成傷害之風險;本指引之特色在於,其要求醫師為AI之利用結果負最終之責任。 FSMB 向各州醫療委員會與其他利害關係人所提供之原則與建議如下,以支持對包含AI之臨床照護進行負責任與符合倫理之監管: (1)透明度與揭露(Transparency and Disclosure): 應要求維持於醫療照護領域使用AI之透明度;各州醫療委員會應制定明確之指導方針,向患者揭露AI之使用情況,其有助於患者與醫師之理解,但不會造成不必要之行政負擔;FSMB 應制定文件,詳細說明最常用之AI工具之功能與局限性,以協助醫療委員會發揮監管者之角色,並應制定常見問題與最佳實務文件,作為提供照護時利用AI方面關於透明度之資源。 (2)教育與理解(Education and Understanding): FSMB及其於醫學教育界之合作夥伴,應為醫師、醫療委員會與患者,確認有關醫療照護中AI之結構化教育資源,該等資源應包括協助瞭解AI如何運作、其優點、潛在風險以及對患者照護之影響。 (3)負責任之使用與問責(Responsible Use and Accountability): 開發人員應協助醫師瞭解何時、以及如何於患者之照護中利用AI工具;選擇AI工具支援臨床決策之醫院系統、保險公司或其他機構應向醫師提供有關AI工具之教育、存取各工具之性能報告,並應設計一個定期檢視工具功效的流程;AI工具應以得使各州醫療委員會能稽核與理解之方式設計,以便適當評估依賴工具輸出結果之醫師是否偏離照護標準(standard of care);FSMB 應支持各州醫療委員會針對臨床醫師如何負責任、可問責地使用AI之解釋。 (4)公平性與近用(Equity and Access): 應努力確保所有患者皆能公平地近用AI帶來之好處;FSMB與各州醫療委員會致力於以下原則:醫療人員所提供之照護是公平的、且不受基於種族、民族或其他形式歧視之偏見影響;FSMB應與其他利害關係人一起理解並解決演算法偏差問題。 (5)隱私與資料安全(Privacy and Data Security): AI工具之開發者必須實施嚴格之保護措施,以保護AI開發與評估時所利用之患者資料,通常情況下應告知患者資料如何被利用,且FSMB應與行業利害相關人一起制定AI系統使用與散布患者資料之政策,包括針對AI開發或評估中使用之患者資料之最低資料保護措施。 (6)監督與監管(Oversight and Regulation): 各州醫療委員會必須保留對於提供醫療服務時,不當應用AI工具之醫生進行紀律處分之權力,其包括問責議題之考慮,特別是當AI系統變得更加自主時;各州醫療委員會應審查其管轄範圍內如何對「醫療行為」(practice of medicine)進行法律定義,以確保對提供醫療照護、人力或其他方面進行持續之監管監督。 (7)法律法規之持續審查與調整(Continual Review and Adaptation of Law and Regulations): 各州醫療委員會應在FSMB之支持下,隨著AI之不斷發展,持續檢視與更新與AI相關之指引與法規;政策制定者應考慮AI對基本法律原則的影響,例如醫療行為之定義以及AI對企業醫學實務之影響;FSMB 應建立一個專門團隊,持續檢視與調整AI指引與法規。 本指引指出,AI工具通常無能力取代醫師之專業判斷、道德責任或對州醫療委員會之責任,醫療行為中之關鍵職業責任始終為確保診斷、臨床決策與建議不存在偏差。與用於診斷或治療疾病之任何其他工具或鑑別方法相同,醫療專業人員有責任確保基於證據結論之準確性與真實性,因此於將AI系統用於患者照護前,醫師應以合理努力識別與解決偏差(如虛假或不準確之資訊等)。