德國聯邦參議院於2021年5月28日通過《電信與電子媒體資料與隱私保護法》(Gesetz zur Regelung des Datenschutzes und des Schutzes der Privatsphäre in der Telekommunikation und bei Telemedien, TTDSG),其目的係保護數位世界中的資料與隱私,平衡數位服務使用者利益與公司經濟利益,並解決因德國電信法(Telekommunikationsgesetz, TKG)、電信媒體法(Telemediengesetz, TMG)與歐盟一般資料保護規則(General Data Protection Regulation, GDPR)同時並行,使消費者、電信服務提供者以及監管機關不確定如何適用上開法律之情況。
TTDSG彙集TKG、TMG中資料與隱私保護相關之條文,包含電信保密(Fernmeldegeheimnis)(第3條至第8條)、交通位置資料(第9條至第13條)、來電通知與號碼顯示(第14條至第16條)、終端使用者名錄和相關資料提供(第17條至第18條),以及允許匿名化、可隨時停止使用服務和保護未成年之相關措施(第19條至第23條),並參考GDPR和電子隱私保護指令(ePrivacy-Richtlinie)新增數位遺產(digitaler Nachlass)、終端設備隱私保護、同意管理以及監管之規定。
TTDSG於第4條新增數位遺產規定,終端使用者繼承人或具有相似法律地位者,可以向供應商行使繼承人權利,不受電信保密相關規定限制;在終端設備隱私保護和同意管理之部分,TTDSG第24條規定原則上第三方僅能在終端使用者同意下,於使用者的終端設備中儲存與近用資料,且當事人可隨時撤銷同意。
最後在監管方面,則分為個人資料保護相關與電信媒體領域,前者依TTDSG第28條、第29條由德國聯邦資料保護與資訊自由委員會(Die Bundesbeauftragte für den Datenschutz und die Informationsfreiheit, BfDI)作為獨立的資料保護監管機構,後者則依TDSG第30條屬德國聯邦網路局(Bundesnetzagentur)的職權範圍。
本文為「經濟部產業技術司科技專案成果」
世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則: 一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。 二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。 三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。 四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。 五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。 六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。
德國聯邦最高法院(BGH)判決醫師評價平台「Jameda」須刪除受評醫師個人資料德國聯邦最高法院(Bundesgerichtshof, BGH)在2018年2月20日的判決(Urt. V. 20.02.2018 – Az. VI ZR 30/17)中認定,網路評價網站(Bewertungsportale)之業務雖未違反聯邦資料保護法(Bundesdatenschutzgesetz, BDSG)規定,但其評價立場必須維持中立。醫師評價平台「Jameda」(www.jameda.de)之商業行為違反此項原則,故須依原告要求,刪除其在該網站之所有個人資料。 本案中,原告為執業皮膚科醫師,且非醫師評價平台「Jameda」之付費會員。然「Jameda」不僅將該醫師執業簡介列入其網站,且同時在其個人簡介旁,列出與其執業地點相鄰,具競爭關係之其他同為皮膚科醫師之付費會員廣告。反之,付費會員不但可上傳個人照片,且在其執業簡介旁,不會出現與其診所相鄰之競爭者廣告。 聯邦最高法院依據聯邦資料保護法第35條第2項第2款第1號 (§35 Abs. 2 S. 2 Nr. 1 BDSG) 規定,並經衡量同法第29條第1項第1款第1號 (§29 Abs. 1 S. 1 Nr. 1 BDSG) 規定之效果後,同意原告對「Jameda」提出刪除網頁所列個資之請求。法院見解認為,「Jameda」的廣告策略使其失去資訊與意見傳遞者之中立角色,並以自身商業利益為優先,故其言論自由不得優於原告之資訊自主權(informationelle Selbstbestimmung)。 該判決強制網路評價平台嚴格審查本身之廣告供應商務,並與聯邦憲法法院(Bundesverfassungsgericht)見解一致,用於商業目的之言論表達僅有低於一般言論自由的重要性。儘管如此,評價平台仍被視為介於患者間不可或缺的中介者(unverzichtbare Mittelperson),可使互不相識的病患,藉此獲得經驗交流的機會。 儘管本案判決同意原告刪除評價網站中所儲存個人資料之請求,但見解中,仍肯定評價網站具有公開醫療服務資訊之功能,符合公眾利益,受評價醫師被公開之個人簡介亦僅涉及與社會大眾相關之範圍。針對網站評分及評論功能之濫用,醫師仍可對各種不當行為分別採取法律途徑保障自身權益。由此可知,德國聯邦最高法院仍認定,評價網站之評分與評論機制,仍符合聯邦資料保護法規範之宗旨,惟若該評價網站以評價機制作為商業行銷手段,則不得主張其言論及意見表達自由高於受評價者之資訊自主權。
全方位提升生技製藥能力,德國提出生技製藥領域的價值創造補助新政策在製藥領域運用生物技術的方法來研發新藥與新醫療診斷方法,已有越來越重要的趨勢,且將成為未來醫療照顧的主流,因此各國政府均積極透過各種政策工具,企圖搶食此塊經濟利益的大餅,不過直到目前為止,推動生技製藥最為成功的國家,仍集中在少數幾個研發大國。一直以來,德國在製藥領域也是居有舉足輕重的科技領先地位,不過在涉及生技製藥這一塊,德國目前的成就有限,已成功上市而來源於德國的生技藥品,並不多見(2005年德國核准通過的140項新有效成分中,僅有6項由德國公司所研發)。另一方面,德國擁有全歐洲最多的生技公司數目,這些生技公司每年從事相當多的研發活動,但其與製藥公司卻甚少主動合作。為加強生技產業與製藥產業的連結與合作,德國聯邦教育與研究部(Bundesministerium für Bildung und Forschung, BMBF)新近提出了新補助政策-「生技製藥之策略性競爭」(Strategiewettbewerb BioPharma),企圖為德國重新贏回世界藥局(Apotheke der Welt)的美名。 這個新的策略規劃所訴求的對象,是由主要來自於學術界的生技公司與傳統的製藥產業界所成立的合作團隊,而以企業型態經營者(Unternehmerisch geführte Konsortien aus Wissenschaft und Wirtschaft )。BMBF希望透過鼓勵建立這樣的合作關係,讓這些合作參與者提出各種有助於以更有效率的方法研發醫藥品的新策略性概念或創意(Ideen für neuartige strategische Konzepte vorzulegen, die die Entwicklung von Medikamenten effizienter machen),以填補生技製藥產業價值創造鏈中的漏洞。所謂的價值創造鏈,指從實驗室的研究、醫院的投入、到醫藥品的製造、甚至是最後端的藥局等各生技製藥研發乃至製造使用所不可缺的各重要環節。 由德國的這項新補助政策可以看出,在生技製藥領域,德國政府的補助方向已不再侷限於傳統的技術能力的提升,反而是如何串連整個產業鏈以發揮價值創造的最大效益,為此一補助新政策的最大特色。由於補助的目的是在實現價值創造,因此補助去進行價值開發與規劃的醫藥技術項目,也沒有特別限定,反而是希望可以涵蓋所有可能的醫藥技術領域,因此包括抗癌藥物與治療神經系統方面疾病的藥物研發、開發新的疫苗或疾病診斷用的生物標記、以及如何建構臨床研究的新基礎架構(der Aufbau neuartiger Infrastrukturen für klinische Studien)等,均屬BMBF徵求創意的範圍。 經BMBF邀集由國際專家組成的評選委員會評選通過的創意,將可在未來五年獲得BMBF的經費持續協助。BMBF預計選出五個產學合作聯盟,投入總計一億歐元的經費支持,預計在今(2008)年秋天,將可順利選出五個補助的對象。BMBM的此項新補助政策受到生技製藥產業界的廣大迴響,成功引導德國生技產業與製藥產業構思各種可能的合作模式。BMBF表示,其在選擇適格的合作聯盟作為補助對象時,最重要的考量標準為合作夥伴的個別經歷介紹、其有無執行能力、是否具備執行所需的基礎環境條件、所提出的合作概念是否足以使其具備國際競爭優勢,以及所規劃的醫療技術發展是否具有創新性、原創性與市場潛力。
美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。 為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。