UFC (Ultimate Fighting Championship)極限格鬥錦標賽的擁有人Zuffa LLC起訴Justin.tv侵害著作權及商標權。根據法院的訴狀文件中,2010年10月23日的UFC121賽事有超過5萬人從Justin.tv中觀看現場直播,Zuffa花錢僱用第三人從網站中移除將近200個未經授權的UFC121賽事。
Zuffa LLC宣稱起訴的原因是因為UFC付費觀看現場直播的內容被非法上傳在Justin.tv上的情形十分猖獗,而且Zuffa花了近乎兩年的時間試圖給予Justin. tv多次的機會,鼓勵Justin. tv預防或限制非法下載等等的侵權活動。Zuffa LLC的律師表示「遺憾地,Justin. tv對於大量線上侵權行為視而不見,我們相信Justin. tv實際上是想要引誘他們的使用者去做著作權侵害的行為,因此, Zuffa沒有選擇只能向法院提出訴訟。」
Zuffa的UFC賽事的內容僅提供給付費者,UFC每年提供付費觀看內容給有線電視或是衛星電視,並且在2009年獲得了將近美金3500萬的收益,一般影像收費44.95美元(高畫質影像收費54.95美元)。UFC 法律顧問表示目前取得線上授權的會員,像是UFC.com、Yahoo等等,都是收費44.95美元,這項費用是依據與DirecTV和DISH Network合約中約定的定價,價格不能下降,所有通路包含提供折扣價的通路都是違法的。
2014年7月24日美國眾議院金融服務資本市場附屬委員會(House of Representatives Committee on Financial Services’ Capital Markets Subcommittee)針對新創企業啟動法(Jumpstart Our Business Startups Act,簡稱JOBS法)舉行聽證,由證券交易委員會(United States Securities and Exchange Commission,簡稱SEC)企業融資處基思‧希金斯(Keith Higgins)處長(Director of the Division of Corporation Finance)向委員會說明。 各界對於JOBS法相當重視,委員們於聽證會中提出相關疑慮,處長回應包括: 期望今年底提出JOBS法所漏未規定之「存款與貸款」(savings and loans)部分之補救計畫(proposal)。 關於2013年SEC舉行之小型企業資本形成之企業論壇(Business Forum on Small Business Capital Formation)」之建議,例如創業者仰賴朋友與家人資助,仍應發行群眾募資證券(crowd-funding securities)給予此類非合格投資者(non-accredited investor)等,將部分建議納入考慮。 SEC正考慮將JOBS法原設定50萬美元的籌資門檻提高,以因應門檻(過低)對於群眾募資可能之負面影響。 本法提供股票初次上市的快速入口程序(onramp process),及快速成長公司(emerging growth companies)發行報告給潛在投資人,其執行緩慢原因在於投資人之顧慮,但相信此程序將經常被運用。 希金斯處長雖就部分疑慮進行解答,然後續仍須觀察SEC將如何完成JOBS法相關規範之制定與執行狀況。
歐盟網路接取與互連之規範現況與發展 澳洲發布《人工智慧臨床應用指引》提供臨床照護之人工智慧使用合規框架澳洲醫療安全與品質委員會(Australian Commission on Safety and Quality in Health Care, ACSQHC)與衛生、身心障礙及高齡照護部(Department of Health, Disability and Ageing)聯合於2025年8月發布《人工智慧臨床應用指引》(AI Clinical Use Guide),旨在協助醫療人員於臨床情境中安全、負責任使用人工智慧(Artificial Intelligence, AI)。該文件回應近年生成式AI與機器學習快速導入醫療現場,卻伴隨證據不足、風險升高的治理挑戰,試圖在促進創新與確保病人安全之間建立清楚的合規框架。 該指引以臨床流程為核心,將AI使用區分為「使用前、使用中、使用後」三個階段,強調醫療人員須理解AI工具的預期用途、證據基礎與風險限制,並對所有AI產出負最終專業責任。文件特別指出,當AI工具用於診斷、治療、預測或臨床決策支持時,可能構成醫療器材,須符合澳洲醫療用品管理管理局(Therapeutic Goods Administration, TGA)的相關法規要求。 在風險治理方面,該指引明確區分規則式AI、機器學習與生成式AI,指出後兩者因輸出不確定性、資料偏誤與自動化偏誤風險較高,臨床人員不得過度依賴系統建議,仍須以專業判斷為核心。同時,文件要求醫療機構建立AI治理與監督機制,持續監測效能、偏誤與病安事件,並於必要時通報TGA或隱私主管機關。 在病人權益與隱私保護方面,指引強調知情同意與透明揭露,醫療人員須向病人說明AI使用目的、潛在風險及替代方案,並遵循《1998年隱私法》(Privacy Act 1988)對個人健康資料儲存與跨境處理的限制。澳洲此次發布之臨床AI指引,展現以臨床責任為核心、結合法規遵循與風險管理的治理取向,為各國醫療體系導入AI提供具體且可操作的合規參考。 表1 人工智慧臨床應用指引合規流程 使用前 使用中 使用後 1.界定用途與風險。 2.檢視證據與合規。 3.完備治理與告知。 1.AI輔助決策。 2.即時審查修正。 3.維持溝通透明。 1.持續監測效能。 2.標示可追溯性。 3.通報與再評估。 資料來源:AUSTRALIAN COMMISSION ON SAFETY AND QUALITY IN HEALTH CARE [ACSQHC], AI Clinical Use Guide (2025).
法國國民議會通過反仇恨言論立法提案法國國民議會(National Assembly)於2019年7月9日通過反仇恨言論立法提案,希望效仿德國社群媒體管理法(NetzDG),課予網路平台業者積極管理平台上仇恨言論(hate speech online)之責任。該提案希望透過立法要求大型網路平台及搜尋引擎,如Facebook及YouTube等,必須設置用戶檢舉管道,並於24小時內刪除以種族、宗教、性別、性取向或身心障礙為由之煽動仇恨或歧視性侮辱言論,否則將面臨高達全球營業額4%之罰款。 在主管機關方面,規劃由法國廣電主管機關「最高視聽委員會」(High Audiovisual Council, CSA)進行監管,網路平台業者必須向其提交仇恨言論之處理報告與相關數據。同時,平台業者應加強與法國司法系統的合作,取消違法用戶的匿名權利並提供相關證據資料,以利司法追訴。 2019年3月15日紐西蘭清真寺槍擊案之網路直播事件,讓各國警惕勿讓網路平台成為傳遞仇恨言論的工具。發起立法的法國議員Laetitia Avia表示,對抗網絡仇恨言論是場艱巨且長期的戰鬥,希望透過立法讓各方負起應有的責任,讓仇恨言論無所遁形,但反對者認為平台業者為了避免裁罰的風險,可能會對內容進行過度審查,相關自動化過濾技術也可能對言論自由產生不利影響。本立法提案仍待法國參議院完成審議。