歐盟執委會於2025年2月4日發布「關於禁止的人工智慧行為指引」(Commission Guidelines on Prohibited Artificial Intelligence Practices)(下稱「指引」)」,以因應歐盟《人工智慧法》(AI Act,下稱AIA)第5條關於「禁止的人工智慧行為」之規定。該規定自2月2日起正式實施,惟其內容僅臚列禁止行為而未深入闡釋其內涵,執委會特別制定本指引以避免產生歧義及混淆。
第5條明文禁止使用人工智慧系統進行有害行為,包括:利用潛意識技術或利用特定個人或群體之弱點進行有害操縱或欺騙行為、實施社會評分機制、進行個人犯罪風險預測、執行無特定目標之臉部影像蒐集、進行情緒識別分析、實施生物特徵分類、以及為執法目的而部署即時遠端生物特徵識別系統等。是以,指引就各禁止事項分別闡述其立法理由、禁止行為之具體內涵、構成要件、以及得以豁免適用之特定情形,並示例說明,具體詮釋條文規定。
此外,根據AIA規定,前述禁令僅適用於已在歐盟境內「投放市場」、「投入使用」或「使用」之人工智慧系統,惟對於「使用」一詞,並未予以明確定義。指引中特別闡明「使用」之定義,將其廣義解釋為涵蓋「系統投放市場或投入使用後,在其生命週期任何時刻的使用或部署。」
指引中亦指出,高風險AI系統的特定使用情境亦可能符合第5條的禁止要件,因而構成禁止行為,反之亦然。因此,AIA第5條宜與第6條關於高風險AI系統的規定交互參照應用。
AIA自通過後,如何進行條文內容解釋以及法律遵循義務成為各界持續討論之議題,本指引可提升AIA規範之明確性,有助於該法之落實。
德國聯邦最高法院(Bundesgerichtshof, BGH)在2018年2月20日的判決(Urt. V. 20.02.2018 – Az. VI ZR 30/17)中認定,網路評價網站(Bewertungsportale)之業務雖未違反聯邦資料保護法(Bundesdatenschutzgesetz, BDSG)規定,但其評價立場必須維持中立。醫師評價平台「Jameda」(www.jameda.de)之商業行為違反此項原則,故須依原告要求,刪除其在該網站之所有個人資料。 本案中,原告為執業皮膚科醫師,且非醫師評價平台「Jameda」之付費會員。然「Jameda」不僅將該醫師執業簡介列入其網站,且同時在其個人簡介旁,列出與其執業地點相鄰,具競爭關係之其他同為皮膚科醫師之付費會員廣告。反之,付費會員不但可上傳個人照片,且在其執業簡介旁,不會出現與其診所相鄰之競爭者廣告。 聯邦最高法院依據聯邦資料保護法第35條第2項第2款第1號 (§35 Abs. 2 S. 2 Nr. 1 BDSG) 規定,並經衡量同法第29條第1項第1款第1號 (§29 Abs. 1 S. 1 Nr. 1 BDSG) 規定之效果後,同意原告對「Jameda」提出刪除網頁所列個資之請求。法院見解認為,「Jameda」的廣告策略使其失去資訊與意見傳遞者之中立角色,並以自身商業利益為優先,故其言論自由不得優於原告之資訊自主權(informationelle Selbstbestimmung)。 該判決強制網路評價平台嚴格審查本身之廣告供應商務,並與聯邦憲法法院(Bundesverfassungsgericht)見解一致,用於商業目的之言論表達僅有低於一般言論自由的重要性。儘管如此,評價平台仍被視為介於患者間不可或缺的中介者(unverzichtbare Mittelperson),可使互不相識的病患,藉此獲得經驗交流的機會。 儘管本案判決同意原告刪除評價網站中所儲存個人資料之請求,但見解中,仍肯定評價網站具有公開醫療服務資訊之功能,符合公眾利益,受評價醫師被公開之個人簡介亦僅涉及與社會大眾相關之範圍。針對網站評分及評論功能之濫用,醫師仍可對各種不當行為分別採取法律途徑保障自身權益。由此可知,德國聯邦最高法院仍認定,評價網站之評分與評論機制,仍符合聯邦資料保護法規範之宗旨,惟若該評價網站以評價機制作為商業行銷手段,則不得主張其言論及意見表達自由高於受評價者之資訊自主權。
競業禁止新方向-「勞資雙方簽訂離職後競業禁止條款參考原則」 Google公司為強化專利組合,再下一步棋谷歌公司(下簡稱Google)已經證實收購來自IBM公司共217篇專利;其中188篇專利為IBM已取得之專利,29篇專利為IBM公司申請中的專利。但Google拒絕透露收購金額。 這些專利涵蓋了許多不同的技術,主要的專利是與資料處理有關,例如電子郵件處理、線上日曆,以及在不同裝置間轉換web apps等功能。其中一篇專利預期用以提升Google的社群網路(Google+)之搜尋功能。 其實從去年開始,Google已經收購了來自IBM公司總共約2000篇的專利,這些專利內容與手機軟體、電腦的硬體設備,以及處理器有關。此外,Google去年也以鉅額收購Motorola公司,背後一個很大的原因可能是跟Motorola所擁有的2萬多篇專利有關。 目前許多科技龍頭公司,已有例行性地藉由採取專利訴訟以取得市場地位的趨勢。例如Apple已指控包括HTC等智慧型手機供應商,因使用Google所擁有的Android手機操作系統,而涉嫌侵害Apple的諸篇專利;在與Apple的爭訟過程中,HTC獲得來自Google收購Motorola後所獲得之專利。 Google的執行長佩吉(Larry Page)在宣布收購Motorola時曾經表示,藉由收購Motorola可強化Google的專利組合(patent portfolio),協助Google公司對抗來自Apple或其他公司的競爭威脅。 Google公司透過持續不斷地強化專利組合,拓展專利領域,企圖在這些因專利涉訟的智慧型手機市場中,穩固其市場霸主地位。
全美各州醫療委員會聯合會發布人工智慧(AI)治理指引,並要求醫師為AI之利用結果負最終責任全美各州醫療委員會聯合會(The Federation of State Medical Boards, FSMB)於2024年4月發布「引導人工智慧以負責任與符合倫理方式融入臨床實務」(Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice)指引,明確概述醫師於利用AI協助提供照護時可採取之步驟,以履行其倫理與專業職責,期能藉此降低對患者造成傷害之風險;本指引之特色在於,其要求醫師為AI之利用結果負最終之責任。 FSMB 向各州醫療委員會與其他利害關係人所提供之原則與建議如下,以支持對包含AI之臨床照護進行負責任與符合倫理之監管: (1)透明度與揭露(Transparency and Disclosure): 應要求維持於醫療照護領域使用AI之透明度;各州醫療委員會應制定明確之指導方針,向患者揭露AI之使用情況,其有助於患者與醫師之理解,但不會造成不必要之行政負擔;FSMB 應制定文件,詳細說明最常用之AI工具之功能與局限性,以協助醫療委員會發揮監管者之角色,並應制定常見問題與最佳實務文件,作為提供照護時利用AI方面關於透明度之資源。 (2)教育與理解(Education and Understanding): FSMB及其於醫學教育界之合作夥伴,應為醫師、醫療委員會與患者,確認有關醫療照護中AI之結構化教育資源,該等資源應包括協助瞭解AI如何運作、其優點、潛在風險以及對患者照護之影響。 (3)負責任之使用與問責(Responsible Use and Accountability): 開發人員應協助醫師瞭解何時、以及如何於患者之照護中利用AI工具;選擇AI工具支援臨床決策之醫院系統、保險公司或其他機構應向醫師提供有關AI工具之教育、存取各工具之性能報告,並應設計一個定期檢視工具功效的流程;AI工具應以得使各州醫療委員會能稽核與理解之方式設計,以便適當評估依賴工具輸出結果之醫師是否偏離照護標準(standard of care);FSMB 應支持各州醫療委員會針對臨床醫師如何負責任、可問責地使用AI之解釋。 (4)公平性與近用(Equity and Access): 應努力確保所有患者皆能公平地近用AI帶來之好處;FSMB與各州醫療委員會致力於以下原則:醫療人員所提供之照護是公平的、且不受基於種族、民族或其他形式歧視之偏見影響;FSMB應與其他利害關係人一起理解並解決演算法偏差問題。 (5)隱私與資料安全(Privacy and Data Security): AI工具之開發者必須實施嚴格之保護措施,以保護AI開發與評估時所利用之患者資料,通常情況下應告知患者資料如何被利用,且FSMB應與行業利害相關人一起制定AI系統使用與散布患者資料之政策,包括針對AI開發或評估中使用之患者資料之最低資料保護措施。 (6)監督與監管(Oversight and Regulation): 各州醫療委員會必須保留對於提供醫療服務時,不當應用AI工具之醫生進行紀律處分之權力,其包括問責議題之考慮,特別是當AI系統變得更加自主時;各州醫療委員會應審查其管轄範圍內如何對「醫療行為」(practice of medicine)進行法律定義,以確保對提供醫療照護、人力或其他方面進行持續之監管監督。 (7)法律法規之持續審查與調整(Continual Review and Adaptation of Law and Regulations): 各州醫療委員會應在FSMB之支持下,隨著AI之不斷發展,持續檢視與更新與AI相關之指引與法規;政策制定者應考慮AI對基本法律原則的影響,例如醫療行為之定義以及AI對企業醫學實務之影響;FSMB 應建立一個專門團隊,持續檢視與調整AI指引與法規。 本指引指出,AI工具通常無能力取代醫師之專業判斷、道德責任或對州醫療委員會之責任,醫療行為中之關鍵職業責任始終為確保診斷、臨床決策與建議不存在偏差。與用於診斷或治療疾病之任何其他工具或鑑別方法相同,醫療專業人員有責任確保基於證據結論之準確性與真實性,因此於將AI系統用於患者照護前,醫師應以合理努力識別與解決偏差(如虛假或不準確之資訊等)。