BFI和英國電影電視慈善機構設立Covid-19緊急救濟基金

  近期,Netflix向Covid-19影視緊急救濟基金捐贈100萬英鎊,並由電影電視慈善機構與British Film Institute(BFI)的支持下進行管理,目的是向在英國各地因停產而直接影響之在職工人和自由職業者,提供緊急短期救濟。BFI和電影電視慈善機構本身並沒有直接將資金投入基金,而是希望觸發第三方的投資。目前,該基金會正制訂確切之資格標準及個人資助水平,針對從事製作,發行和展覽的人員開放救濟。

  此次Netflix向Covid-19電影和電視緊急救援基金會及全球其他組織的捐款旨在為失業人員提供緊急救濟,其原創系列副總裁安妮·門薩表示:“我們很榮幸與BFI和電影電視慈善組織合作,為電視和電影製作中受災最重的工人提供支持。從電工到木匠,從髮型和化妝師到司機的英國工作人員一直對Netflix的成功至關重要,我們希望在現在這個艱難的時刻,給最需要支持的自由職業者提供幫助。”

  面對來勢洶洶之Covid-19疫情,全世界之影視產業皆受到前所未有之調整,我國面對疫情,文化部亦已研擬短期抒困措施與中長期振興之因應方案,並研擬「藝文紓困及振興辦法(草案)」,就短期抒困方面,「藝文紓困補助」將補貼藝文事業、團體及個人之營運成本;長期振興部分則將藝文產業納入經濟部振興抵用劵之適用範圍可用於藝文展演、電影院等藝文消費。然目前我國文創產業之抒困措施仍以政府補貼為主,若為加速恢復產業運作,或許國內各藝文團體或協會亦可效仿英國BFI,自主建立振興與抒困機制,以利受重創之藝文從業人員維持生計。

相關連結
※ BFI和英國電影電視慈善機構設立Covid-19緊急救濟基金, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8437&no=55&tp=1 (最後瀏覽日:2026/01/12)
引註此篇文章
你可能還會想看
新國際協定針對未經請求之行銷電話或電子訊息展開聯合行動

  加拿大隱私專員於2016年6月14日表示,制定支持全球電信監管機構和消費者保護機構,針對垃圾郵件和行銷騷擾電話之跨境共同合作協議。   倫敦行動計畫(London Action Plan)備忘錄(MOU)之簽署國,現已可針對打擊跨國界或逾各個國家監管部門範圍之犯罪從事者的執法行動,相互分享資訊和情報,以獲取協助。   包括加拿大隱私專員辦公室(OPC)在內,目前既已簽署方分別為:澳大利亞通訊及傳媒管理局;加拿大廣播電視和電信委員會、韓國訊息安全局(KISA)、荷蘭消費者和市場監管局(ACM)、英國資訊委員辦公室及公民諮詢局、紐西蘭內政部、南非國家消費者委員會、美國聯邦貿易委員會和聯邦通訊傳播委員會。其他國家之政府當局亦表示願提交備忘錄,以及將來可能加入之意願。   對於加拿大隱私專員辦公室而言,這項協議將有助於達成加拿大反垃圾郵件法(CASL)關於電子郵件地址蒐集和間諜軟體之調查義務與責任,並與具有相同任務之夥伴機構間,進行偵查技巧及策略之分享。   加拿大隱私專員辦公室致力於和國內及國際夥伴合作,並已與國內之CASL執法合作夥伴及其他許多國家的隱私保護機構簽訂協議。

澳洲發布《人工智慧臨床應用指引》提供臨床照護之人工智慧使用合規框架

澳洲醫療安全與品質委員會(Australian Commission on Safety and Quality in Health Care, ACSQHC)與衛生、身心障礙及高齡照護部(Department of Health, Disability and Ageing)聯合於2025年8月發布《人工智慧臨床應用指引》(AI Clinical Use Guide),旨在協助醫療人員於臨床情境中安全、負責任使用人工智慧(Artificial Intelligence, AI)。該文件回應近年生成式AI與機器學習快速導入醫療現場,卻伴隨證據不足、風險升高的治理挑戰,試圖在促進創新與確保病人安全之間建立清楚的合規框架。 該指引以臨床流程為核心,將AI使用區分為「使用前、使用中、使用後」三個階段,強調醫療人員須理解AI工具的預期用途、證據基礎與風險限制,並對所有AI產出負最終專業責任。文件特別指出,當AI工具用於診斷、治療、預測或臨床決策支持時,可能構成醫療器材,須符合澳洲醫療用品管理管理局(Therapeutic Goods Administration, TGA)的相關法規要求。 在風險治理方面,該指引明確區分規則式AI、機器學習與生成式AI,指出後兩者因輸出不確定性、資料偏誤與自動化偏誤風險較高,臨床人員不得過度依賴系統建議,仍須以專業判斷為核心。同時,文件要求醫療機構建立AI治理與監督機制,持續監測效能、偏誤與病安事件,並於必要時通報TGA或隱私主管機關。 在病人權益與隱私保護方面,指引強調知情同意與透明揭露,醫療人員須向病人說明AI使用目的、潛在風險及替代方案,並遵循《1998年隱私法》(Privacy Act 1988)對個人健康資料儲存與跨境處理的限制。澳洲此次發布之臨床AI指引,展現以臨床責任為核心、結合法規遵循與風險管理的治理取向,為各國醫療體系導入AI提供具體且可操作的合規參考。 表1 人工智慧臨床應用指引合規流程 使用前 使用中 使用後 1.界定用途與風險。 2.檢視證據與合規。 3.完備治理與告知。 1.AI輔助決策。 2.即時審查修正。 3.維持溝通透明。 1.持續監測效能。 2.標示可追溯性。 3.通報與再評估。 資料來源:AUSTRALIAN COMMISSION ON SAFETY AND QUALITY IN HEALTH CARE [ACSQHC], AI Clinical Use Guide (2025).

美國能源部加強推動智慧電網之網路安全,並提供自我評估調查工具

  美國能源部於今年(2012)6月28日發布一套新的網路安全自我評估調查工具(Cybersecurity Self-Evaluation Survey Tool),以強化保護公共事業的業者避免遭受網路安全的攻擊,這套工具也是能源部為施行其於5月31日公布的網路安全能力成熟度模型(Cybersecurity Capability Maturity Model)的一部分,同時此模型的發展也是為了支持白宮的電力網路安全風險管理成熟度倡議( Electricity Subsector Cybersecurity Risk Management Maturity Initiative)。   網路安全成熟度模型的發展乃係由能源部與國土安全部共同領導,並且與業界、其他聯邦機構以及卡內基大學軟體工程研究所合作進行,該模型的四個目標在於:加強電力網路安全能力、使相關業者可以有效並持續設立網路安全能力的基準、分享知識、解決的方法與其他相關的參考資料、使業者得以排定對於改善網路安全的行動以及投資上的優先順序,以幫助業者發展並且評估他們的網路安全能力。   此次發佈的評估工具則是以問卷的方式,著重在情境式的認知與威脅及弱點的管理,而後能源部將針對自願提供評估結果的業者提供個案報告,幫助業者改善其網路安全能力,同時,能源部也建議業者,建立優先行動方案,以解決差距的問題,並且定期評估追蹤網路安全能力的改善進度,能源部也提醒業者注意網路威脅環境上與技術上的改變,以進行應變的評估。

澳洲政府發布「國家 AI 計畫」 將採用科技中立的AI治理模式

澳洲工業、科學及資源部(Department of Industry, Science and Resources)於2025年12月2日發布「國家AI計畫」(National AI Plan),擘劃了澳洲至2030年的AI發展藍圖,將「掌握機遇」、「普及效益」與「確保人民安全」列為三大發展方向。該計畫將透過基礎建設投資、人才培育、產業支持,以及強化監管能力等途徑,打造一個更具競爭力、包容性與安全性的 AI 生態系統。 國家AI計畫的另一個重點在於,澳洲政府打算透過現有的法律監管架構治理AI,而不另立AI專法。此舉是回應澳洲生產力委員會(Productivity Commission)於8月提出之建言:政府在推動創新與訂定規範時必須取得平衡,應暫緩推動「高風險 AI 的強制護欄(mandatory guardrails)」,僅有在現行制度無法處理AI衍生之危害時,才有必要考慮制定 AI 專法。 據此,國家AI計畫指出,面對AI可能造成的危害,現有制度已有辦法進行處理。例如面對使用AI產品或服務的爭議,可依循《消費者保護法》(Australian Consumer Law)取得權利保障;AI產品或服務的風險危害,亦可透過《線上安全法》(Online Safety Act 2021)授權,制定可強制執行的產業守則(enforceable industry codes)來應對。澳洲政府未來也將推動《隱私法》(Privacy Act 1988)修法,意欲在「保護個人資訊」與「允許資訊被使用及分享」之間取得適當平衡。 同時,由於採用分散式立法的關係,澳洲特別成立「AI 安全研究院」(Australian AI Safety Institute, AISI),以強化政府因應 AI 相關風險與危害的能力。AISI將協助政府部門內部進行監測、分析並共享資訊,使部門間能採取即時且一致的治理政策。 澳洲政府曾在2024年9月研議針對高風險AI進行專門的監管,但因擔心過度立法恐扼殺AI發展轉而採用「科技中立」的監管方式,以既有法律架構為基礎推動AI治理。此與歐盟的AI治理邏輯大相逕庭,未來是否會出現現行制度無法處理之AI危害,抑或採用現行法制並進行微調的方式即可因應,值得持續觀察。

TOP