世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則:
一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。
二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。
三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。
四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。
五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。
六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。
面對科學界越來越無法抵擋的複製人浪潮,聯合國二月十八日召開一項特別會議,並表決通過聲明,呼籲各國政府禁止各種形式的複製人研究,包括用於研究人類幹細胞的技術等。不過項聲明並不具強制力。 聯合國法律委員會是以七十一票贊成,三十五票反對,四十三票棄權下,通過這項由宏都拉斯和美國布希政府提出的支持禁止複製人的聲明,委員會通過後交給聯合國大會,由一百九十一個會員國成員最後決定。回教國家已經表明,聯合國大會表決時將棄權,因為聯合國內部並無法達成共識﹔而目前各自有人類幹細胞研究的英國,比利時和新加坡都反對這項聲明,並稱聲明內容不會影響他們的「醫療性幹細胞研究」。 會中支持和反對陣營的最主要爭議核心,在於醫療性複製人類的研究,這類研究必須複製人類胚胎取得幹細胞,實驗結束後銷毀。支持這項研究技術的科學家認為,人類幹細胞研究為許多至今仍無法治療的疾病帶來新希望,例如阿茲海默症,各種癌症,糖尿病和脊椎傷害患者,影響約一億人﹔但是如美國,加拿大等反對國家則認為,這種研究不論是哪一種目的,都是在剝奪利用一個人的生命。聯合國成員在二○○一年起討論制定一項具約束力的全球性公約,禁止複製人,不過各國歧見擴大,一直無法達成共識。義大利因此提議制定不具強制力的宣言,呼籲各國各自立法「禁止任何透過複製程序產生人類生命的企圖,以及任何意圖達成此一目的的研究。」不過,宏都拉斯將此建議擴大,提議聯合國聲明「禁止所有形式的複製人行為。」
新加坡金融管理局發布穩定幣監管架構,以降低金融風險新加坡金融管理局(Monetary Authority of Singapore, MAS)於2023年8月15日發布穩定幣監管架構,旨在維持金融穩定發展,並將與新加坡幣或十大工業國(G10)貨幣掛勾之單一貨幣穩定幣(single-currency stablecoins, SCS)納入監管,確保穩定幣的安全可靠。符合監管規範之穩定幣發行人,可向MAS申請標註為「MAS監管之穩定幣(MAS-regulated stablecoins)」,有助於區分其他不受政府監管之數位支付代幣(digital payment tokens),以保障穩定幣持有人權益及降低金融穩定之潛在風險。 依據本監管架構,穩定幣發行人需遵循的監管要求包括:(1)價值穩定性,穩定幣儲備資產須遵守其構成、估值、託管與審計方面的要求,以維持價值穩定性;(2)資本,發行人必須維持最低資本與流動資產,以降低破產風險;(3)贖回,持有人可在發行人收到贖回請求後5個工作天內,以穩定幣面值贖回;(4)資訊揭露,發行人必須向持有人揭露相關重要資訊,包括有關穩定幣價值穩定機制、穩定幣持有人權利以及儲備資產審計結果等資訊。MAS表示,穩定幣若受到適當監理,維持價值穩定,將可成為可信賴的數位交易媒介,開創更多創新的金融科技應用,促進金融穩健發展。
因應ChatGPT人工智慧趨勢,為企業提出營業秘密管理建議2022年11月美國OpenAI公司推出人工智慧大型語言模型ChatGPT,提供全球使用者透過輸入文本方式向ChatGPT提出問題,雖營業秘密不需絕對保密,惟是否會「因向ChatGPT揭露營業秘密而使營業秘密喪失了秘密性」? 依OpenAI公司「非API訪問數據政策」規定,ChatGPT透過OpenAI公司的AI訓練人員審核「使用者上傳至ChatGPT的資訊」,提供ChatGPT反饋,強化ChatGPT進行有效的學習,讓ChatGPT模仿人類語言回覆使用者所提出的問題。在AI訓練人員未將「使用者上傳至ChatGPT的資訊」交由ChatGPT訓練、學習前(上次訓練是在2021年9月),此聊天內容不會成為ChatGPT給其他使用者的回答,此時資訊對於公眾仍具秘密性。依據ChatGPT的使用條款第5(a)條之單方保密義務規定:「OpenAI公司、其子公司及其他第三方公司可能賦予使用者『機密資訊的接觸權限』,但使用者僅限於使用條款所允許的服務中使用該些機密資訊,不得向第三方揭露該機密資訊,且使用者至少應採取合理的注意保護該機密資訊。所謂機密資訊係指OpenAI公司、其子公司及其他第三方公司(1)指定的非公開資訊,或(2)合理情況下,被認定為機密資訊者,比如軟體、規格及其他非公開商業資訊。」。即ChatGPT對於使用者輸入的聊天內容不負保密義務。 公司將程式碼、會議紀錄等敏感資訊與ChatGPT共享,不必然屬於「因揭露營業秘密而使營業秘密喪失秘密性」,考量訓練數據量大,秘密性取決於周遭環境與揭露性質,例如: 1.揭露的資訊類型,比如飲料配方可能會比客戶名單更容易取得。 2.揭露的環境,比如競爭對手、大眾是否能提出具體問題,以致能取得他人聊天內容的營業秘密。 為在ChatGPT的趨勢下確保營業秘密的秘密性,建議企業採取的管理策略如下: 1.透過「資訊分類」以識別可共享的資訊。 2.審核涉及敏感資訊的協議、公司政策及供應商契約。 3.採取實體、數位的資訊保密措施,並留意尊重員工隱私,比如限制接觸某些網站或應用程式,應留意員工的手機是否能繞過此限制。 4.建立公司保密文化,如透過公司培訓、新人入職教育訓練,定期提醒其應負擔的保密義務。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。
流行音樂「取樣」之著作權概念流行音樂之抄襲,於我國著作權法之評價上,是以著作權法第91條第1項「擅自以重製之方法侵害他人之著作財產權者」來評價,我國智慧財產法院已有相關判決可供參酌,如智慧財產法院 103 年刑智上易字第 47 號刑事判決。惟流行音樂之創作,往往受到流行趨勢及過去其他作品的啟發,但將任何的風格上的模仿皆認為係著作權之侵害顯然並不恰當,而旋律相似度高達九成左右者屬於抄襲固然無庸置疑,然僅取樣(sampling)使用少數詞曲,用以表達概念或致敬之使用他人創作情形,其判斷標準,或可參考美國法院之判決見解。 2003年的Newton v. Diamond案中,第九巡迴上訴法院認可「微量取用」(de minimis use)原則,認為在有數十秒的取樣情形時,當一般聽眾不認為是挪用,即構成微量取用,並無實質近似,且若未取樣原曲之重要部分,亦不構成抄襲。但2005年時,聯邦第六巡迴上訴法院在Bridgeport Music, Inc. v. Dimension Films案中,對微量取用的情形提出「明確性規則」(bright- line rule),認為必須要取得授權方得取樣;而美國最高法院則在1994年的Campbell v. Acuff-Rose案中,認為雖有擷取他曲旋律,但整體曲風不同時,採取轉化性原則,認為構成合理使用。