德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議:
本文為「經濟部產業技術司科技專案成果」
新加坡科學家研究出新的抗癌方法,新加坡生物工程與奈米科技研究院宣佈,研究出智慧奈米載體,可以攜帶抗癌藥物準確送入癌細胞裏,有效地把癌細胞殺死,減少副作用。 星國科技研究局生物工程與奈米科技研究院宣佈,研究出以聚合物製成的智慧奈米載體,大小少過二百奈米,也就是大約頭髮直徑的五百分之一,這種微粒載體內部中空,可以裝載抗癌藥物,而載體的外殼可以保護藥物免受消化液消化掉,在一般環境裏結構穩定,解決過去載體結構不穩定的問題。 領導這項研究的科學家楊義燕博士表示,這種奈米載體可用酸鹼度和溫度變化來控制,當微粒載體碰到成低酸度的癌細胞組織和細胞質時,就會沈澱變形,同時釋放出內部的藥物分子殺死癌細胞。過去也有科學家研究出類似的微粒載體,但必須由體外透過溫度變化來控制微粒在體內的行進,控制不易;這次研究的載體,只要靠酸鹼度變化就可以把抗癌藥物帶到深層組織或細胞群,控制容易。 載體釋放藥物的過程:當智慧奈米載體遇到癌細胞組織,會附在癌細胞組織表面,同時載體外部也附上生物訊號,能夠協助載體辨識和深入癌細胞內部,當癌細胞吸收了載體後,載體反過來吸收癌細胞內的質子,並把藥物分子釋放到細胞質和細胞核裏。 研究團隊在進行老鼠乳癌細胞臨床實驗顯示,透過智慧奈米載體把用來治療白血病和各種癌症的阿黴素送到癌細胞內,有效抑制腫瘤生長,卻不會產生對正常細胞的毒害作用及副作用。
美國猶他州訂定「應用程式商店問責法」保障未成年人用戶之安全網路環境美國猶他州州長於2025年3月26日正式簽署「應用程式商店問責法(App Store Accountability Act)」(下稱本法)並於同年5月7日生效,為全美首部強制應用程式商店實施年齡驗證及家長同意機制的州法,其核心目標為強化對未成年人的網路環境保護。 本法要求應用程式商店供應商(下稱供應商)於用戶創建帳戶時驗證用戶年齡,若確認為未成年人,其帳戶必須與經過驗證的「家長帳戶」相關聯,未成年人下載或購買應用程式前,供應商須自家長處獲得「可驗證的同意」,且為確保該同意基於充分知情,供應商須向家長提出詳細聲明揭露該應用程式之年齡分級、內容描述、個資之收集與共享情況,以及開發者保護用戶資料之措施等內容,且於前述內容發生重大變更時通知家長並重新取得同意。 應用程式開發者(下稱開發者)亦須向供應商提供準確的資訊,並於應用程式發生「重大變更」時及時通知供應商,及透過數據共享機制驗證其猶他州用戶的年齡以及未成年用戶的家長同意狀態。若開發者善意信賴供應商所提供的年齡及同意資訊行事,可豁免承擔違規責任(安全港機制),爰本法主要的問責對象為供應商。 前述核心義務將於2026年5月6日起生效,若供應商或開發者提供不實資訊,將構成欺騙性交易行為而受到追訴;且自2026年12月31日起,若未成年人因供應商或開發者違反本法規定而受到損害,其本人或家長將有權提起民事訴訟請求賠償。
國有研發設施開放近用之法制規範研析-以美日韓規定為核心 全美各州醫療委員會聯合會發布人工智慧(AI)治理指引,並要求醫師為AI之利用結果負最終責任全美各州醫療委員會聯合會(The Federation of State Medical Boards, FSMB)於2024年4月發布「引導人工智慧以負責任與符合倫理方式融入臨床實務」(Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice)指引,明確概述醫師於利用AI協助提供照護時可採取之步驟,以履行其倫理與專業職責,期能藉此降低對患者造成傷害之風險;本指引之特色在於,其要求醫師為AI之利用結果負最終之責任。 FSMB 向各州醫療委員會與其他利害關係人所提供之原則與建議如下,以支持對包含AI之臨床照護進行負責任與符合倫理之監管: (1)透明度與揭露(Transparency and Disclosure): 應要求維持於醫療照護領域使用AI之透明度;各州醫療委員會應制定明確之指導方針,向患者揭露AI之使用情況,其有助於患者與醫師之理解,但不會造成不必要之行政負擔;FSMB 應制定文件,詳細說明最常用之AI工具之功能與局限性,以協助醫療委員會發揮監管者之角色,並應制定常見問題與最佳實務文件,作為提供照護時利用AI方面關於透明度之資源。 (2)教育與理解(Education and Understanding): FSMB及其於醫學教育界之合作夥伴,應為醫師、醫療委員會與患者,確認有關醫療照護中AI之結構化教育資源,該等資源應包括協助瞭解AI如何運作、其優點、潛在風險以及對患者照護之影響。 (3)負責任之使用與問責(Responsible Use and Accountability): 開發人員應協助醫師瞭解何時、以及如何於患者之照護中利用AI工具;選擇AI工具支援臨床決策之醫院系統、保險公司或其他機構應向醫師提供有關AI工具之教育、存取各工具之性能報告,並應設計一個定期檢視工具功效的流程;AI工具應以得使各州醫療委員會能稽核與理解之方式設計,以便適當評估依賴工具輸出結果之醫師是否偏離照護標準(standard of care);FSMB 應支持各州醫療委員會針對臨床醫師如何負責任、可問責地使用AI之解釋。 (4)公平性與近用(Equity and Access): 應努力確保所有患者皆能公平地近用AI帶來之好處;FSMB與各州醫療委員會致力於以下原則:醫療人員所提供之照護是公平的、且不受基於種族、民族或其他形式歧視之偏見影響;FSMB應與其他利害關係人一起理解並解決演算法偏差問題。 (5)隱私與資料安全(Privacy and Data Security): AI工具之開發者必須實施嚴格之保護措施,以保護AI開發與評估時所利用之患者資料,通常情況下應告知患者資料如何被利用,且FSMB應與行業利害相關人一起制定AI系統使用與散布患者資料之政策,包括針對AI開發或評估中使用之患者資料之最低資料保護措施。 (6)監督與監管(Oversight and Regulation): 各州醫療委員會必須保留對於提供醫療服務時,不當應用AI工具之醫生進行紀律處分之權力,其包括問責議題之考慮,特別是當AI系統變得更加自主時;各州醫療委員會應審查其管轄範圍內如何對「醫療行為」(practice of medicine)進行法律定義,以確保對提供醫療照護、人力或其他方面進行持續之監管監督。 (7)法律法規之持續審查與調整(Continual Review and Adaptation of Law and Regulations): 各州醫療委員會應在FSMB之支持下,隨著AI之不斷發展,持續檢視與更新與AI相關之指引與法規;政策制定者應考慮AI對基本法律原則的影響,例如醫療行為之定義以及AI對企業醫學實務之影響;FSMB 應建立一個專門團隊,持續檢視與調整AI指引與法規。 本指引指出,AI工具通常無能力取代醫師之專業判斷、道德責任或對州醫療委員會之責任,醫療行為中之關鍵職業責任始終為確保診斷、臨床決策與建議不存在偏差。與用於診斷或治療疾病之任何其他工具或鑑別方法相同,醫療專業人員有責任確保基於證據結論之準確性與真實性,因此於將AI系統用於患者照護前,醫師應以合理努力識別與解決偏差(如虛假或不準確之資訊等)。