英國政府將設立網路兒童保護中心

         英國內閣辦公室指出,英國政府將設立網路兒童保護中心以協助警方與孩童保護機構,該中心主要偵查目標為利用網際網路散佈違法之兒童影像或「打扮」兒童的戀童癖人士。其宗旨在減少利用網路協助虐童的行為,而對孩童、家庭與社會產生傷害的情況。


  該中心未來將隸屬於 2006 4 1 日成立之「嚴重組織犯罪局」( Serious Organized Agency = SOCA )管轄,並於該局成立之同時開始運作,由專責的警察人員協同孩童保護,並由網路工業專家負責業務之執行。

相關連結
※ 英國政府將設立網路兒童保護中心, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=691&no=16&tp=1 (最後瀏覽日:2026/01/26)
引註此篇文章
你可能還會想看
日本內閣府公布生成式AI初步意見彙整文件,提出風險因應、應用及開發兩大關注重點

日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論: 一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。 AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。 二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。

Ofcom第八次電信與付費電視申訴報告

  Ofcom在今(2013)年3月公佈「2012年第四季電信與付費電視申訴報告書」(Telecoms and Pay TV Complaints Q4 2012),以履行2003年通信法(Communications Act 2003)第26條規定:Ofcom應公布通訊資訊與建議於消費者。是故,為維護消費者之權益,並促進市場競爭,Ofcom從2011年4月起每季公佈「電信申訴報告書」 (Telecoms Complaints);同年10月修訂為「電信與付費電視申訴報告書」(Telecoms and Pay Tv Complaints)。這份報告書不僅協助消費者選擇較好供應商,更意在促進業者服務品質,而從幾次報告書中顯示,業者們被投訴量確實持續下降,可見效果斐然。   Ofcom選擇市占率超過4%、且每月被投訴超過30次的市話、固網寬頻、行動通信服務(月租),與付費電視為調查對象,以維護統計信度。當消費者申訴具有綑綁式服務(bundled services)業者,則視其申訴是否涵蓋多種服務,以Sky同時具有電話、網路服務為例,當民眾申訴廣告不實後,則此申訴僅被記錄於網路服務。由於,民眾申訴範圍相當廣泛而難以統整,Ofcom僅向外界公布業者被投訴的次數,且有下述研究限制: 1.Ofcom僅蒐集本身受理的申訴數據,而其他組織、供應商所受理的,一概不納入報告書。 2.Ofcom雖力求數據的合理性,但不會檢驗消費者投訴的真實性。 3.當Ofcom倡導某些政策時(例如打及廣告不實),可能會導致某些業者申訴量提高。   在這次報告中,各領域被投訴最多的業者如下:Talk Talk於市話服務被投訴最多,被投訴的理由多數為服務缺失與相關服務爭議。Orange則在固網寬頻、行動通信服務(月租)受到最多申訴,其原因是Orange採取民眾購買寬頻服務後,方得再取得免費網路,以取代原本免費網路的提供。在付費電視上,則是BT Vision受到最多申訴,而內容多為提供服務與處理申訴之缺失。Ofcom期以公佈這些資訊,讓消費者得於每個領域選擇最好的供應商。

梵諦岡與IBM、微軟聯合呼籲對臉部辨識等侵入性技術進行監管

  2020年2月28日梵諦岡教宗與兩大科技巨頭IBM及微軟聯合簽署「羅馬呼籲AI倫理道德」文件,支持制定人工智慧(AI)發展倫理與道德規範,並特別呼籲應針對臉部辨識等侵入性技術進行監管。在聯合文件上特別提及臉部識別技術潛在之濫用風險,例如警察會使用臉部辨識系統調查犯罪行為、《財富》500強公司使用AI審查求職者,這兩個例子均具有潛在且高度之風險,使用不正確或是具有偏見之AI判斷均可能會造成傷害。誠如方濟各在致辭中說:「人工智慧記錄個人資料,並使用於商業或政治目的,而且通常是在個人不知情之情況下,這種不對稱,將使少數人了解我們的一切,但我們卻對他們一無所知,這將使批判性思維和對自由的自覺變得遲鈍,不平等現象急遽擴大,知識和財富在少數人手中累積,將對民主社會構成重大風險。」   此次會議希望在國家與國際層面上共同努力促進AI道德規範,並根據以下原則來發展和使用人工智慧。第一,良好的創新:人工智慧系統必須是可理解得,並且在包容性方面必須考慮到所有人的需求,以便每個人都能受益。第二,責任:設計和實施人工智慧者必須承擔責任和保持透明度。第三,公正性:避免根據偏見進行創造或採取行動,從而維護人類平等和尊嚴。第四,可靠性:人工智慧系統必須能夠可靠的運行。第五,安全和隱私:人工智慧系統必須安全運行並尊重用戶的隱私。   目前尚不清楚其他技術公司是否會簽署該文件,以及簽署人將如何實施,但教宗與兩大科技巨頭史無前例的合作,為人工智慧未來發展方向提供遠見卓識,能更加深入的去思考AI的道德意涵以及它將如何與人類更好的合作、互動,互利共生,相輔相成。

日本正式打擊動畫與漫畫盜版 橫跨十五家企業聯手合作

  去年七月日本成立的「漫畫、動畫盜版對策協議會」上個月開始了所謂「MAG PROJECT」,針對中國、美國與歐洲等海外約100個提供盜版的網站,以約5個月的期間,透過電子郵件集中請求刪除盜版內容。   主要打擊對象為提供影音分享的網站、提供漫畫線上閱讀的線上閱讀網站與累積大量盜版資料的儲存空間網站等,在不聽從刪除請求的場合,向當地法院提起訴訟等法律措施也在此次盜版對策的考慮之列。主要保護對象預計包括在日本海外也相當熱門的「one piece(海賊王)」、「名偵探柯南」等總計約580部作品。   「漫畫、動畫盜版對策協議會」包括有東映動畫、吉卜力工作室、角川、講談社、小學館、集英社等等總計15家企業參加,由CODA(內容海外流通促進機構)負責事務局。   提到盜版,以往主要是重製的漫畫書跟DVD,而現在的主流則是網路。盜版在日本海外網路開始流通的時候,約莫是寬頻開始普及的2006年前後。在盜版流通的背景,除大容量的傳輸變成可能之外,還包括有在美國等地出現的日本動畫熱潮,以及Youtube等動畫分享網站的出現等等因素存在。   根據日本動畫協會的調查,2012年日本動畫製作公司的海外銷售金額為144億日圓,相較最近一期高峰值2005年的銷售金額313億日圓,可謂攔腰折半。另據日本經濟產業省25年度的調查,動畫與漫畫盜版造成的損害,光就美國一地來說,推估高達約有兩兆日圓之多。

TOP