美國加州州長Jerry Brown於2018年09月30日簽署該州的網路中立(Net Neutrality)Senate Bill 822法案,但美國司法部(Department of Justice,DoJ)隨即於同日對加州提起訴訟。DoJ指出Senate Bill 822法案牴觸聯邦政府於2018年對於網際網路採取解除管制之政策,該法案意圖阻撓聯邦政策的施行,有違美國憲法。
美國國會於1996年針對電信法(The Communications Act)制定「聯邦或州對網路低度管制(unfettered by Federal or State regulation)」之政策,美國聯邦通訊委員會(Federal Communications Commission,FCC)為符合該政策,於2002年發布命令,將寬頻網路接取服務列為資訊服務(information service),而美國不將資訊服務提供者以公共事業來看待並進行管理。雖然FCC於2015年就網路中立性訂立規則,要求網路服務提供者(Internet Service Provider)應平等處理所有資料,不得擅自降低流量速度、封鎖網站或服務,以確保任何人獲取資訊時不受不合理的限制。但FCC於2017年12月取消網路中立規定,並確保網際網路會在FCC之低度管制措施下,持續維持其自由與開放性。
DoJ及FCC均認為,網際網路本質上為跨州資訊服務,依據美國憲法第6條第2項規定,憲法、聯邦法律及美國對外條約為全國之最高法律,跨州之商務(interstate commerce)應屬聯邦管轄事項而非州管轄事項。因此,在聯邦政府已廢除網路中立性的情形下,且州政府沒有制定州際貿易規範的權限,則加州政府通過Senate Bill 822法案對網路立法監管,針對網路使用頒布違法且極端的法令,是企圖藉由Senate Bill 822法案破壞聯邦政府的規定,不當限制網路自由,與聯邦政府政策有所牴觸,此為違法及不利於消費者。故DoJ聲明其有責任捍衛聯邦政府的特權(prerogatives)以及維護憲法秩序。為此,DoJ起訴聲明為禁止加州執行Senate Bill 822法案,並請求法院判決Senate Bill 822法案無效。
雖然美國聯邦政府廢除網路中立性,但此政策受民主黨、Facebook、Amazon等著名大型科技公司及消費者的抨擊。因此,就DoJ起訴加州Senate Bill 822法案違法,法院是否認同DoJ所主張的牴觸美國憲法,以及美國對於網路中立性議題的後續發展,值得觀察。
COVID-19疫情後美國開始積極處理藥品供應鏈脆弱性,為提振本土製造與審查效率,美國食品及藥物管理局(Food and Drug Administration, FDA)於2025年6月17日宣布將試辦「局長國家優先審查券」(Commissioner’s National Priority Voucher, CNPV)。該計畫依據《聯邦食品、藥品與化妝品法》(The Federal Food, Drug, and Cosmetic Act, FFDCA)與《公共衛生服務法案》(Public Health Service Act, PHSA)授權。CNPV將不同審查分組集中處理,並結合資料預先提交機制,力求將一般10-12個月的審查流程壓縮至1-2個月,試辦期為一年,並與現行優先審查及優先審查券(Priority Voucher, PRV)機制獨立並行。 內容要點: 1.遴選資格:符合任一「國家優先」標準之廠商 因應公衛危機:如廣效疫苗開發 帶來潛在的創新療法:超越突破性療法認定成效的新型療法 解決未滿足公共衛生需求:如罕病或缺乏療效標準治療之疾病 提升美國供應鏈韌性:如將藥品研發、臨床、生產遷至美國 提高可負擔性:將美國藥價降至最惠國藥價,或減少下游醫療費用 2.使用與要求: 適用階段:可於申請臨床試驗或申請藥證等階段啟用,亦可先領「未指名券」保留資格。 文件要求:需提前60天提交完整藥品化學製造與管制(Chemistry, Manufacturing, and Controls, CMC)與仿單預審,如遇重大缺件FDA得延長審查期限。 有效性:2年內使用,逾期失效;不可轉讓,但併購案中可沿用。 CNPV透過團隊同日決策,有望在FDA人力縮減背景下縮短審查時程。並強調國家利益,可能優先惠及具戰略價值及在美投資的大型藥廠;對我國優化藥品審查流程與吸引製造投資等目標,亦具重要參考價值。
英國智財局發布2020-21創新與成長報告,強化智財環境打造創新國家英國智慧財產局(UK Intellectual Property Office)於2021年9月28日發布「2020-21創新與成長報告」(Innovation and growth report 2020-21)。本報告為英國智慧財產局對其2020至2021年間施政工作的總結報告,以創新為帶動國家與企業成長的核心,並期許能透過串接創新者與市場來帶動價值創造,從而建設英國成為全世界最具創新力與創造力的國家。 本報告指出,英國在全球創新指標當中均名列前茅,關鍵在於以系統化、組織化的方式推動創新,從而使創新成為帶動國家發展的動力,並得以對抗冠狀病毒的侵襲與實現淨零(Net Zero)排放的目標。呼應英國在2020年發表研發路徑圖(R&D Roadmap)以及2021年7月發布的創新戰略(Innovation Strategy),英國目標在2035年成為全球創新中心。 面對2020年英國脫離歐盟的巨大轉變,英國智慧財產局同步推動「單一智慧財產局轉型計畫」(One IPO Transformation Programme),以組織重塑、流程再造及數位轉型等方式,完成包含透過政府數位服務系統(Government Digital Service, GDS)推動智慧財產權管理數位化、開發基於人工智慧的商標搜索工具以協助商標申請人降低檢索成本,以及優化包含會計系統在內等工作流程以支持電腦設備更新並提升作業效率等措施。 為了打造世界一流的智慧財產權環境,英國透過一系列政策與法規來鼓勵創新活動,除了面對脫歐過渡期確保對英國商標跟設計等智慧財產權能在脫歐後繼續受歐盟法規的保護,還有藉由與歐洲經濟區以及其他國家的雙邊或多邊貿易協定,納入智慧財產權條款(包含智財保護與執法)、對創新活動的支持、排除與智財相關之市場准入障礙(IP-related market access barrier)、保障消費者選擇,以及獎勵創作人跟補助產業創新等措施,支持英國企業在國內外的創新與成長。
日本發布利用AI時的安全威脅、風險調查報告書,呼籲企業留意利用AI服務時可能造成資料外洩之風險日本獨立行政法人情報處理推進機構於2024年7月4日發布利用AI時的安全威脅、風險調查報告書。 隨著生成式AI的登場,日常生活以及執行業務上,利用AI的機會逐漸增加。另一方面,濫用或誤用AI等行為,可能造成網路攻擊、意外事件與資料外洩事件的發生。然而,利用AI時可能的潛在威脅或風險,尚未有充分的對應與討論。 本調查將AI區分為分辨式AI與生成式AI兩種類型,並對任職於企業、組織中的職員實施問卷調查,以掌握企業、組織於利用兩種類型之AI時,對於資料外洩風險的實際考量,並彙整如下: 1、已導入AI服務或預計導入AI服務的受調查者中,有61%的受調查者認為利用分辨式AI時,可能會導致營業秘密等資料外洩。顯示企業、組織已意識到利用分辨式AI可能帶來的資料外洩風險。 2、已導入AI利用或預計導入AI利用的受調查者中,有57%的受調查者認為錯誤利用生成式AI,或誤將資料輸入生成式AI中,有導致資料外洩之可能性。顯示企業、組織已意識到利用生成式AI可能造成之資料外洩風險。 日本調查報告顯示,在已導入AI利用或預計導入AI利用的受調查者中,過半數的受調查者已意識到兩種類型的AI可能造成的資料外洩風險。已導入AI服務,或未來預計導入AI服務之我國企業,如欲強化AI資料的可追溯性、透明性及可驗證性,可參考資策會科法所創意智財中心所發布之重要數位資料治理暨管理制度規範;如欲避免使用AI時導致營業秘密資料外洩,則可參考資策會科法所創意智財中心所發布之營業秘密保護管理規範,以降低AI利用可能導致之營業秘密資料外洩風險。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。 為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。