英國財政大臣Gordon Brown在倫敦的一場演講中指出,OFCOM現正研擬制定一套適用於各種不同媒介之內容的分級識別標誌。未來不論電視節目、廣播節目、電影、電腦遊戲或者網站內容都可適用該分級識別系統,以幫助父母為家中的孩童過濾不適當的內容,保護孩童在數位化的時代仍可以遠離不適合的媒體內容。 在該場演講中,Gordon Brown 表示,身處在數位時代,父母越來越難掌握孩童所接觸的內容是否適當,但是在無法扭轉科技的進步前提下,應當善加利用新科技並使父母得以透過各種新科技繼續保有為孩童選擇適當的內容之控制權。 OFCOM的發言人僅透露該套分級識別系統不僅適用於所有種類的媒體內容,而且將以文字方式描述各種內容,例如特定內容之裸露程度為何,以作為視聽大眾決定是否接收該內容前的參考。另外,不同於現行的電影分級制度乃是以年齡作為不同等級內容的分級標準,未來OFCOM所推出的分級識別系統將無關乎年齡。不過OFCOM亦表示該分級識別系統的詳細內容目前尚未決定,仍在討論階段。 除了制定一套適用於所有內容的分級識別系統之外,OFCOM未來亦將透過電視廣告以及要求ISP業者配合向消費者宣導各種過濾軟體,以便消費者得以過濾網路上之色情猥褻或暴力之內容。
截圖也違法,日本著作權法擬擴大違法下載之態樣日本文化廳文化審議會著作權分科會於2018年2月13日,出具分科會報告書,內容說明著作權法修正之方向。書中提及「重新檢視並修正違法下載之態樣」一點,擬將違法下載之態樣及動作,由「影音」擴及到所有靜態圖文(如漫畫、照片、小說、雜誌及論文等),「下載」擴及「截圖」(スクショ,screenshot)。 此次修法,起因於近來日本大量出現線上盜版漫畫網站,推估其半年所造成之損失可達4000億日幣以上。該報告書公布後,隨即湧現大量反對之聲浪。反對者認為修法之弊大於利,日本漫畫學會對此發表反對聲明,會長竹宮惠子對於修法表示憂心,認為修法將導致以下問題: 阻礙創作研究(如二次創作); 創作萎縮(日常下載及剪輯將被禁止); 難以判斷網路靜態圖文是否為違法上傳; 即使「下載」違法化,仍然無法根除線上盜版漫畫流通平台。 報告書中亦提及,在個人部落格及需加入會員之社群網(SNS)上傳或下載未經著作權人同意而公開之著作,亦屬違法。倘若為全書掃描上傳等惡性重大之行為,應科以刑責。 針對上述疑慮,報告書中的確未排除修法後將造成著作物在網路上利用萎縮之可能,然仍強調應透過官民間之合作努力,傳達正確之修法内容。並由出版社端導入「ABJ Mark」,推動正版漫畫流通平台,透過科技推動盜版網頁近用警示制度,使大眾知悉其行為即將侵害著作權等。由於法令修正之内容,影響人民日常生活甚鉅,後續修法將在各團體間如何折衝,上述措施能否普及或啟發人民觀念,值得後續持續關注。
世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。
澳洲主管機關起訴Google違法誤導客戶同意使用個資2020年7月澳洲競爭及消費者委員會(Australian Competition and Consumer Commission, ACCC)正式對Google提告,針對Google於2016年的一項個資改變政策的內容,以誤導的方式取得用戶同意,而擴大使用個資範圍的行為。 於2016年,Google希望透過在其帳戶中所取得的個資,連結到用戶在非Google網頁中的瀏覽紀錄,如此Google將能夠依據這些資訊,更準確的在其他網站中投放廣告,以提升廣告費收入。為結合用戶於Google及其他網站的資料,Google需更改原本的個資隱私政策,然而事實上Google並沒有實際取得用戶對於此項改變的同意,反而以類似服務改進的通知:「我們為您的帳戶加入了一些可選擇性的功能,讓您能更好掌控Google所蒐集的資訊及使用方式,同時允許Google向您展示相關的廣告」等文字,誤導用戶藉以徵得用戶對個資政策改變的同意。 雖然Google承諾於2022年後,逐步移除Chrome瀏覽器中第三方Cookie的啟用,此動作將會阻止其他網站透過網路,追蹤到Google用戶的瀏覽紀錄,但由於目前Google還是依據用戶的瀏覽紀錄,針對用戶的特定偏好投放廣告來賺取收益,因此這種廣告模式短期內不太可能有所改變。若ACCC在這次與Google的訴訟中勝訴,那表示未來業者對於取得客戶同意(包括收集使用個資)的方式,從原本習慣使用概括性描述並隱藏使用個資真正目的等用語,來取的客戶同意的模式將有所改變。