2009年,馬里蘭州立法通過去氧核醣核酸(下稱DNA)採集法(DNA Collection Act),允許警方向已經被起訴但尚未定讞之犯罪嫌疑人採集DNA樣本,其適用對象主要在於暴力犯罪或一級竊盜案件。對此問題,美國大約有26州立有與馬里蘭州類似的法案,例如維吉尼亞州的執法單位對於暴力犯罪在經過逮捕後即可進行DNA採集。然而,該法案卻引發了隱私權利與公眾安全之平衡的爭論。
此次爭議爆發於Alonzo Jay King Jr. v. State of Maryland案,案件中Alonzo Jay King Jr.在2009年被起訴暴力攻擊,且因此被警方採集DNA,而後又在經過DNA比對之後,發現與2003年一宗強制性交案件所遺留下的DNA樣本符合,並據此判決Alonzo Jay King Jr.強制性交罪。本案經Alonzo Jay King Jr.上訴高等法院後,高等法院認為調查人員採集其基因資料並以之與舊案件進行比對,已經侵犯了美國憲法第四修正案所賦予人民的合理隱私期待,屬於不合法的搜索,並據此判決禁止向犯罪嫌疑人採集DNA樣本。本案目前正在最高法院上訴中,而最高法院首席法官John Roberts日前發布了一份命令,阻止了高等法院判決的生效,並使得馬里蘭州在最高法院作出判決之前仍然能夠採集DNA;全案預計將在10月進行聽證,未來,最高法院將如何判決,值得吾人注意。美國白宮(The White House,以下簡稱白宮)於2023年8月9日發布《晶片與科學法》(CHIPS and Science Act,以下簡稱晶片法)頒布一周年之總結,說明相關補助及租稅優惠措施之實施成效。自晶片法施行以來,已吸引高達1,660億美元之私人投資,並有50所以上大學宣布將開設半導體人力培訓課程,顯示晶片法對半導體生產製造在地化已有相當成效。晶片法施行後推動之措施如下: 1.說明半導體補助申請流程及條件 美國國家標準及技術研究院(National Institute of Standards and Technology)於2023年2月28日分別發布「半導體製造補助之申請指引」(Funding Opportunit–Commercial Fabrication Facilities)與「半導體製造補助願景」(Vision for Success: Commercial Fabrication Facilities),說明晶片法補助目的、申請流程、條件以及注意事項,並於同年6月23日更新相關內容。 2.說明柵欄條款之運作方式 美國商務部(Department of Commerce)與財政部(Department of Treasury)2023年3月23日於美國聯邦公報(Federal Register)發布法規預告(proposed rules),詳細說明晶片法內柵欄條款(guardrails)之運作方式。根據法規預告之內容,受補助人於受補助後的10年內若未經美國商務部與財政部同意,不得於中國等特定國家進行半導體製造設施「實質擴廠」之「重大交易」,避免受補助人將晶片法提供之補助用於中國,進而侵害美國國家安全。 3.強化半導體研發創新 美國商務部於2022年9月6日發布「美國晶片補助戰略」(A Strategy for the CHIPS for America Fund),說明商務部將與國家科學基金會(National Science Foundation)等建立「國家半導體科技中心與執行國家先進封裝製造計畫」(National Advanced Packaging Manufacturing Program),協助美國維持半導體研發之領先地位,並大幅縮短研發成果商用化之時程。 4.保障區域經濟發展與創新 美國商務部於2023年5月發布第1期「科技中心計畫」(Tech Hubs Program)申請指引,協助區域製造、商業化和部署關鍵技術;並於2023年6月發布第1期「重新競爭領航計畫」(Recompete Pilot Porgram),為長期處於經濟困境的美國社區提供就業機會。
OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。
歐洲藥物管理局(European Medicines Agency,簡稱EMA)發佈針對準備與審查產品特性摘要(summaries of product characteristics,簡稱SmPCs)的指導方針EMA近日針對醫藥公司,在其欲申請人體藥物上市核准的申請文件中,針對如何準備與審查產品特性摘要之文件,提供醫藥公司相關的指導方針。 產品特性摘要不僅是醫藥公司之新藥物在向歐盟申請上市核准時所必須提供的重要文件,也是健康照護專業人員在獲知如何有效並安全使用藥物時的基本資訊來源。產品特性摘要在藥品生命週期存續時必須定時保持更新,以確保無藥物效用性與安全性疑慮的新問題發生;同時,其也是在藥物包裝上所必須含有的基本資訊,以確保藥物服用者能對其所服用的藥物有更多的了解和進行各類風險評估。 產品特性摘要文件,主要係依據歐盟2001/83/EC號指令第8(3)(j)條與歐盟第726/2004號法規第6(1)條之要求而提供。前述法規要求醫藥公司在提出藥物上市許可之申請時,必須遵循歐盟2001/83/EC號指令第11條之規定,附加產品特性摘要於申請文件,以供主管機關作為申請核駁之依據。在EMA針對產品特性摘要所提供的指導方針中,主要係以簡報與影片的方式,來教導醫藥公司如何在產品特性摘要的各個項目中,提供有關申請藥物更為完整與細部的背景資訊。其中,有關於解釋如何完成治療指示(therapeutic indication)與藥物藥效成分(pharmacodynamic properties of a medicine)之項目,於EMA的指導方針中,亦以明確的影片指導來協助醫藥公司提供高品質的產品特性摘要內容。 有鑑於治療人體疾病之藥物,對於人類生理與心理層面攸關重大,如何要求醫藥公司在提出人體藥物上市許可之申請時,能提供藥物完整的背景資訊,以確保從事健康照護之人員以及藥物服用者,完全了解藥物使用方式、效用與風險,則是主管機關無從推卸的責任。觀察EMA針對人體藥物之產品特性摘要製作出完整的指導方針,或許我國衛生機關也可效仿該種方式,來提供國內醫藥公司在提出藥物上市申請時之參考,以確保各項資訊透明並保護藥物使用者在「知」方面的權益。
何謂「阿西洛馬人工智慧原則」?所謂「阿西洛馬人工智慧原則」(Asilomar AI Principles),是指在2017年1月5日至8日,於美國加州阿西洛馬(Asilomar)市所舉行的「Beneficial AI」會議中,由與會的2000餘位業界人士,包括844名學者專家所共同簽署的人工智慧發展原則,以幫助人類運用人工智慧為人類服務時,能確保人類的利益。 該原則之內容共分為「研究議題」( Research Issues)、「倫理與價值觀」( Ethics and Values),及「更長期問題」( Longer-term Issues)等三大類。 其條文共有23條,內容包括人工智慧的研究目標是創造有益的智慧、保證研究經費有益地用於研究人工智慧、在人工智慧研究者和政策制定者間應有具建設性並健康的交流、人工智慧系統在其整個運轉周期內應為安全可靠、進階人工智慧系統的設計者及建造者在道德層面上是其使用、誤用以及動作的利害關係人,並應有責任及機會去影響其結果、人工智慧系統應被設計和操作為和人類尊嚴、權利、自由和文化多樣性的理想具一致性、由控制高度進階人工智慧系統所取得的權力應尊重及增進健康社會所需有的社會及公民秩序,而非顛覆之,以及超級智慧應僅能被發展於服務廣泛認同的倫理理想,以及全人類,而非單一國家或組織的利益等等。