拜登政府於2023年5月4日宣布將採取促進負責任AI創新之新行動,表示公司於部署或公開其產品前,應致力於降低AI風險,並強調風險管理與保障措施的重要性,以防止AI對個人與社會造成潛在危害。此外,拜登總統於2月簽署「透過聯邦政府進一步推動種族平等和支持弱勢群體」行政命令(Executive Order on Further Advancing Racial Equity and Support for Underserved Communities Through The Federal Government),指示聯邦政府機關在設計和使用AI等新技術時,應避免偏見,並保護公眾免受演算法歧視。促進負責任AI創新之新行動包括: 一、投資負責任AI的研發 美國國家科學基金會(National Science Foundation)宣布撥款1.4億美元以啟動7個新的國家AI研究所,未來全美將有25個國家級AI研究所。除有助於促進公私部門之間合作外,將強化AI研發基礎設施、支持多元化AI勞動力發展,及推動氣候、農業、能源、公共衛生、教育與資安等關鍵領域之突破。 二、公開評估現有的生成式AI系統(generative AI systems) Anthropic、Google、Hugging Face、微軟、NVIDIA、OpenAI和Stability AI等領先AI開發商將參與AI系統獨立公開評估,以評估其模型是否符合AI權利法案藍圖(Blueprint for an AI Bill of Rights),及AI風險管理框架(AI Risk Management Framework)所提出之原則與實踐,並使企業及開發人員能就所發現問題,進一步採取解決措施。 三、提出政策引導聯邦政府減輕AI風險及提升AI利用機會 美國行政管理預算局(Office of Management and Budget)宣布,將於2023年夏季發布有關聯邦政府機關各部門使用AI系統之政策指引草案,並徵詢公眾意見。
資通安全法律案例宣導彙編 第5輯 莫德納提告輝瑞COVID-19疫苗侵害其專利,判決結果或可能影響專利承諾發展莫德納公司(Moderna)於2022年8月26日對輝瑞(Pfizer)/BNT公司提出專利侵權訴訟,主張輝瑞之Comirnaty疫苗侵害其RNA平台技術,引發各界關注,因此舉不僅為兩大COVID-19疫苗藥廠之間之專利戰爭,同時可能引發莫德納違反其專利承諾(Patent Pledge)之疑慮,從而衍生專利承諾效力問題之爭議。 莫德納曾於2020年10月8日於該公司官網上自願承諾:「於大流行繼續的同時,莫德納不會針對那些旨在製造對抗大流行疫苗的公司,主張我們與COVID-19相關之專利」(第一次專利承諾),而後於2022年3月7日,莫德納更改其承諾(第二次專利承諾),永遠不會針對在Gavi COVAX預先市場承諾(Advance Market Commitment, AMC)中之92個中低收入國家、或為這些國家生產疫苗之公司主張莫德納之COVID-19疫苗專利,且前提是生產之疫苗僅用於AMC之92個國家。莫德納對於輝瑞侵權訴訟之聲明亦與更新後之承諾一致,其僅請求2022年3月8日後輝瑞COVID-19疫苗侵害莫德納專利之損害賠償,而未請求2022年3月7日前之損害賠償責任。 惟莫德納單方面更改其專利承諾並提起訴訟之行為仍引發眾多爭議,主要包括莫德納第一次專利承諾是否有法律上之拘束力、後續更改其專利承諾之行為是否有效、這些行為之影響為何等問題。就第一次專利承諾而言,目前有認為其具有法律上之拘束力,其可能可被視為一種「公共授權」(public license)行為,為專利權之書面授權且適用於任何希望接受授權者;退步言之,即使該授權未成立,莫德納基於「承諾禁反言」(promissory estoppel)之法理,亦不能隨意撤回該承諾或追溯撤銷其已授予之權利;且由於第一次承諾中所述之「大流行繼續(while the pandemic continues)」之條件在世界衛生組織未宣告疫情結束之前仍然存續,該承諾應仍繼續有效。惟亦有認為莫德納應得以第二次專利承諾可取代第一次專利承諾,而自2022年3月起主張其專利權者。 本案針對專利承諾之效力引發許多討論,未來於此訴訟案件中法院如何評價莫德納之專利承諾以及對於其效力之認定,亦可能影響現有之專利承諾生態:若企業可任意收回、更改其承諾,並於後續得以訴訟手段提告運用其專利之第三人,或有可能影響公眾對於專利承諾信任或利用意願;而若專利承諾不能任意修改,企業須受自身之承諾嚴格拘束,則未來或許即使社會遭遇危機,企業亦不敢貿然發布專利承諾應對危難。因此,此案後續發展將對整體專利承諾與授權影響重大,值得持續進行關注及了解。
德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。 諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。 綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。