美國聯邦上訴法院判決,加州政府禁止販賣暴力電玩予未成年人之法案,係屬違憲

  美國聯邦第九區巡迴上訴法院,於2009年2月20日判決中維持下級審見解,認定『禁止暴力電玩法案』係違反憲法所保護的言論自由。系爭法案於2005年由加州國會通過,並由州長Arnold Schwarzenegger所簽署批准。根據該法案規定,禁止販售或出租所謂『特別殘酷、極端邪惡或道德敗壞(especially heinous, cruel or depraved)』的暴力電玩給未滿18歲的未成年人;符合法條所描述之暴力電玩並應該在包裝盒上加註除現行ESRB分級標誌以外的特別標示(18禁);且賦予零售商於販賣暴力電玩時,有檢查顧客年齡之義務,違者將可處1000美元罰款。

 

  聯邦法院法官認為,被告(加州政府)無法證明『暴力電玩』會影響青少年心理及精神方面的健康,或者出現反社會或激進的行為舉止;被告也無法證明透過立法禁止的手段,能有效達到法案所宣稱保護未成年人的立法目的;法院也認為,系爭條文規定過於模糊,並未能說明暴力電玩之判斷標準。

 

  原告Video Software Dealers Association 和Entertainment Software Association表示,要達到加州政府所宣稱的保護未成年人的立法目的,應從加強既有ESRB分級制度的教育宣導、落實零售商遵守分級制度以及透過父母的管教監督等方式著手,而非增加不適當的內容審查機制。然而,支持該法案者則主張,禁止暴力電玩如同禁止對未成年人散佈色情內容一樣(最高法院認為政府禁止對未成年人散佈色情內容並未違憲),本案被告加州州長Schwarzenegger也表示將上訴到底。

 

  日前在德國也出現修正刑法,將販賣或散佈暴力電玩入罪之提議,在暴力電玩分級制度所引起的爭議日益擴大之際,各國相關作法及其所引起之爭議,或許值得我國主管機關重新檢討「電腦軟體分級辦法」之借鏡參考。

相關連結
※ 美國聯邦上訴法院判決,加州政府禁止販賣暴力電玩予未成年人之法案,係屬違憲, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=3010&no=57&tp=1 (最後瀏覽日:2025/12/20)
引註此篇文章
你可能還會想看
德國聯網車輛駕駛策略

  德國聯邦政府目標擬定於2020年實現高度自動化駕駛,為達成自動駕駛目標,車聯網(Connected driving)及智慧交通系統(Intelligent transport systems)技術成為必要發展工作項目。車聯網即透過無線通訊技術,使車輛間(Vehicle-to-Vehicle, V2V)或車輛對基礎設施 (Vehicle-to-Infrastructure, V2I)等彼此交換訊息,或是將行車資訊傳輸到伺服器,並透過資訊網路平臺將資料整合利用,並依不同功能需求進行有效監控管理和提供綜合服務。未來,可預見道路使用者的個別交通資訊的質與量將大幅提升,無論是部份自動駕駛或高度自動駕駛,將產生龐大資料量,故系統需要即時迅速的運算能力。例如,前方一旦發生車禍事故,必須通知後方自動模式駕駛車輛即時減緩速度,並適時轉由駕駛人員介入操控。   自動化及車聯網駕駛發展係為跨領域之問題,聯邦政府即針對五大領域問題:基礎設施、法規、創新研發、聯網化、資訊安全及資料保護,提出一連串作法及措施,確保德國汽車產業能保持領先地位。   我國資通訊及汽車零件產業具備技術相對優勢,然應就適合我國車聯網之實際需求發展,促進相關產業創新應用,並利用我國產業優勢與國際接軌,讓台灣在車聯網的發展中取得先機。

美國與歐盟成立貿易與科技理事會TTC,藉由十大領域工作小組強化雙方貿易與技術合作

  美國及歐盟於2021年6月在美歐峰會達成共識,宣布成立美歐貿易和技術委員會(EU-US Trade and Technology Council, TCC),並於2021年9月29日首次在美國匹茲堡舉辦會議,由歐盟執委會、美國國務卿、美國商務部及貿易代表共同主持,討論歐美未來在貿易與技術合作空間。   TTC目標是擴大並深化貿易與跨大西洋投資關係,更新21世紀國際經貿規則。美歐間在全球最大共同民主價值觀和經濟關係的基礎上,確保貿易和技術政策能為雙方人民提供優惠及服務。   其中關於美歐未來在貿易與技術合作的具體執行事項,則交由TTC組成共十個工作小組以應對一系列的全球貿易、經濟和技術議題,包括:技術標準合作、供應鏈安全、氣候和綠色技術、ICT安全和競爭力、資料治理和技術平台、威脅安全和人權的技術濫用、出口管制、投資審查、全球貿易挑戰以及中小企業取得和利用數位技術。透過TTC能使美歐兩國政府與利害關係者進行密集且持續的接觸,確保TTC合作計畫的成果能促進雙方經濟高度成長。   此外,TTC合作與交流不影響雙方各自監管自主性,並應尊重雙方不同法律制度。TTC合作同時也應關注包括WTO等多邊機構協調及與理念相近夥伴間之合作,以促進數位及經濟治理之民主與永續典範。

歐盟發布第三版支付服務指令(PSD3)草案,強化消費者保護與改善產業環境

歐盟執委會(European Commission)於2023年6月28日提出第三版支付服務指令(Third Payment Services Directive, PSD3)草案,目前預計於2024年底前通過最終版本,並於2026年施行。 相較第二版支付服務指令(PSD2),PSD3強化歐盟電子、數位支付和金融服務規範,補強安全性(Security)、透明度(Transparency)與促進創新(Innovation),建立更適合歐盟的支付架構。其旨在保護消費者權益和個人資訊,改善支付產業競爭環境,提高消費者對資料掌控度,促進創新金融產品服務發展。 PSD3修正重點歸納如下: 一、消費者保護:強化對未經授權交易之保護,完善支付詐欺或支付錯誤之賠償方案,減少消費者潛在損失。 二、開放銀行(Open Banking):持續推動開放銀行發展,透過加強規範第三方支付服務提供者(Third party payment provider, TPP)與提供更標準化與更安全的應用程式介面(Application Programming Interface, API),促進創新金融產業服務發展。 三、支付系統安全性:強化客戶身分認證(Strong Customer Authentication, SCA),促進支付過程的透明度與安全性。 四、因應新型詐欺:導入新規定與工具對抗日益增加的網路詐欺風險。 五、跨境支付:加強跨境支付措施與降低成本,推動歐盟市場一體化。 六、支付創新與多元化:導入區塊鏈或其他更先進的即時支付系統。 七、監管:制定更明確的法規,加強各方監管,確保市場公平與穩定。

世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧

世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。

TOP