美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括:
1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。
2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。
3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。
4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。
5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。
6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。
7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。
8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。
9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。
10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。
11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。
12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。
為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。
美國FDA官員新近對外表示,該局正考慮參考處方藥使用者付費法(Prescription Drug User Fee Act, PDUFA),研擬一套向學名藥產業收費的機制。PDUFA是美國國會在1992年所通過的法案,依據該法,生技及製藥產業向FDA支付「使用費」(user fees),FDA承諾每年達到一定的審查“業績”(performance standards),以加速新藥上市申請。 目前PDUFA的適用對象並不包括學名藥廠,鑑於歷年來學名藥上市申請案件大幅攀升,以FDA既有之人力與資源,早已無法負擔如此大量的上市審查工作。另若考量諸多知名原廠藥之專利將在未來幾年陸續到期,如不增加新的資源,FDA的學名藥審查負擔將會持續惡化。使用者付費機制若能擴及學名藥,則FDA將可獲得額外資源,用來聘用更多的專業審查人員、取得更為豐富之資料,以保障病患之權益,使其可儘速近用便宜且有效之學名藥。 雖然PDUFA在改善新藥上市審查效率方面,確實達到了政府與產業界雙贏、民眾受惠的目的,不過這套制度要擴及學名藥產業,卻遭受到學名藥業界的反對。其中最主要的疑慮來自於,在現今的審查制度設計下,提高學名藥上市審查效率的目標是否能透過使用者付費達成,殊值懷疑。蓋根據美國法律規定,學名藥廠若以原開發藥廠之專利無效為理由申請上市,應將申請上市之事實通知原開發藥廠,一旦原開發藥廠認為學名藥廠侵害其專利並提起訴訟,FDA即必須停止學名藥之上市審查。據此,學名藥業界認為,在上述問題解決前,即使PDUFA擴及適用到學名藥產業,也並未能有助於改善學名藥上市審查之效率。 總而言之,PDUFA若欲擴及學名藥產業,仍需釐清前揭疑慮並有待國會立法通過,不過,一旦使用者付費機制擴及適用於學名藥產業,則學名藥廠之藥物開發成本將會提高,我國學名藥廠如欲經營美國市場,值得注意其發展。
解析生技製藥研發成果涉及智慧財產保護之新課題 歐盟質疑Google新訂網路隱私權政策服務條款2012年3月,Google 公告使用者的新網路隱私權政策條款,這項措施將Google 所提供的各項服務適用同一個隱私權政策,並整合多項服務於同一帳號之中,隨著隱私權政策的變動,使用者條款也一併更新,這項措施並同時透過電子郵件通知所有的使用者。然而,Google 此項新政策在歐洲地區實施時卻碰到困難,歐盟表示該隱私權條款適法性受到質疑,將可能受到有關單位的調查。 歐盟資料保護相關指令乃建構基礎架構規制網路使用者個人的隱私,相關機構與業者都必須遵守。關於此項Google 新隱私權政策條款,規定使用者的資料可以合併使用於各個不同的服務中,將可能造成使用者的個人資料將可能透過不同的服務而洩漏,並且遭受第三人使用,而有違反歐盟資料保護指令之虞。針對此問題,法國資料保護管理機構(The Commission Nationale de l'Informatique, CNIL)已對Google 提出詢問,詢問的內容包含Google是如何保存使用者的資料;如何將使用者於不同服務中揭露的資訊加以整合等問題。由於既存的使用者若要繼續使用Google相關服務,就必須同意該新訂隱私權政策條款,因此CNIL也透過此次機會了解使用者退出資料不被揭露的機制內容,以避免使用者在未經同意下個人隱私受到侵害。不過,屆至目前為止,包含英國在內的歐洲各國仍普遍認為,該隱私權政策條款並未充分賦予使用者掌握個人資料的權限。 相較於歐盟,美國聯邦交易委員會(Federal Trade Commission, FTC)對於使用者於使用網路時隱私權的保護,著重於業者隱私權保護的承諾;亦即歐盟著重於隱私權為個人基本權利,而美國普遍要求網路業者能於條款中,明確承諾保護使用者使用網路時的各項權利。無論如何,各國對於保護使用者使用網路服務的原則與概念雖然不同,但對於使用者資訊揭露的透明化要求均為一致。
美國最高法院認定美國環保署須負責管制溫室氣體排放今(2007)年4月2日,美國最高法院以5票對4票之決議,認定美國環保署(the Environmental Protection Agency)必須負責管制美國境內二氧化碳等溫室氣體之排放。過往,美國環保署主張其並無權限去管制溫室氣體排放,因為溫室氣體並不是美國潔淨空氣法(the Clear Air Act)所定義的空氣污染源(air pollutant)。然而,法院指出,在潔淨空氣法中要求美國環保署必須管制可能危害公眾健康或福祉的任何空氣污染源,而溫室氣體符合該法對於空氣污染源之定義,所以除非美國環保署可以斷定溫室氣體並未導致氣候變遷,或者可以提供合理解釋說明為何其無法判斷是否溫室氣體導致氣候變遷,否則美國環保署須依法對溫室氣體採取進一步行動。 判決同時指出,美國環保署不能以氣候變遷之不確定性為理由來迴避其職責,如果該不確定性足以防止美國環保署對於溫室氣體與氣候變遷兩者關聯做出合理判斷,則美國環保署必須說明清楚。 然而,持不同意見的法官則指出,法院應將全球暖化問題留給國會與總統來處理;且州政府(訴訟是由Massachusetts州為首的12個州政府對美國環保署提出)並無立場對美國環保署提出告訴。