無線網路溢波盜用之法律議題初探

刊登期別
2006年09月
 

※ 無線網路溢波盜用之法律議題初探, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=747&no=64&tp=1 (最後瀏覽日:2025/12/23)
引註此篇文章
你可能還會想看
區塊鏈技術運用於智財保護

  區塊鏈技術具有去中心化、透明性、開放性、自治性、訊息不可篡改、匿名性等六大特徵,可加密記錄該系統上所有使用者之行為資訊,並使該資訊不易篡改。其最初被運用在虛擬貨幣比特幣(Bitcoin)的建構,發展至今應用已拓展至諸多領域,包括對智慧財產權的保護。美國的blockai網站即是將區塊鏈技術運用於智財保護的實例之一,美國過去由國會圖書館負責著作權之管理之作法,在程序上曠日費時且效率不彰,故blockai於2015年創立於美國舊金山,旨在提供著作人更簡單有效的選擇。其作法係由著作人於blockai註冊帳號後進行作品之註冊並取得一相應之著作權證書,並由blockai以區塊鏈技術建立公眾資料庫,透過區塊鏈不可篡改、透明開放等技術特徵來證明作品確由著作人創作,利於後續舉證維權。現階段blockai開立之證書雖未被授與法律上地位,但依區塊鏈的技術特徵,可望成為法庭攻防上著作人有力之科學證據。   揆諸我國相關法律,我國非採著作登記制,著作人為維護自身權利需先證明系爭著作為自己所創作,惟訴訟實務上著作人多半舉證不易。若參考美國作法導入區塊鏈技術落實著作權保障,或可作為科技整合法律之新標竿。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」

世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧

世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。

新加坡發布《應用程式分發服務安全準則》以強化應用程式用戶保護

為降低應用程式(App)用戶接觸有害內容的風險,新加坡資通訊媒體發展管理局(Infocomm Media Development Authority,IMDA)發布《應用程式分發服務安全準則》(Code of Practice for Online Safety for App Distribution Services),要求應用程式分發服務(App Distribution Services,ADSs)採取必要防護措施,並導入年齡驗證機制,以進一步強化兒童保護。該準則將於 2025 年 3 月 31 日 生效。 本次IMDA依據《廣播法》(Broadcasting Act)第45L條所發布之《應用程式分發服務安全準則》,係為進一步強化對App用戶的保護。ADSs作為數位裝置存取應用程式的主要入口,是許多網路內容(例如線上遊戲)的上架平台,當用戶透過 ADSs下載App的比例提高,其接觸不當內容的風險亦增加。因此,新加坡要求指定業者建立安全措施,以降低用戶接觸不當內容的風險。被指定業者包括:Apple App Store、Google Play Store、Huawei AppGallery、Microsoft Store及Samsung Galaxy Store等。該準則亦要求ADSs業者建立年齡驗證機制,訂定年齡分級標準並限制兒童存取及下載不適齡的App,同時強化家長控制功能。這一措施讓新加坡成為全球首批強制推動年齡驗證的國家或地區之一,其他國家包括澳洲、歐盟、英國及美國。IMDA 亦將持續與ADSs 業者溝通,確保其有效落實年齡驗證機制。 早在2023年1月,新加坡已於《廣播法》中將線上通訊服務納入規範,政府可要求業者封鎖惡性內容(egregious content),確保網路環境安全並保護兒童免受不當內容影響。此外,依據《網路安全準則》(Code of Practice for Online Safety),政府可要求指定社群媒體服務業者(如Facebook、Instagram、TikTok、Twitter與YouTube等)降低用戶接觸有害內容的風險。 為因應日益增加的有害線上內容,新加坡未來將持續與相關政府機構、產業及社群合作,推動適當的監管措施與公共教育,以確保新加坡用戶免受線上風險侵害。

歐美擴大永續報告書的揭露範圍,企業可透過歷程管理增進資料透明度

根據美國瑞生國際律師事務所(Latham & Watkins)於2024年1月發布的ESG年度報告指出,隨漂綠議題延燒,ESG報告不受信任為一課題,因此國際逐步擴大ESG監管,多國透過立法強制企業應揭露永續報告書或供應鏈資訊,比如:歐盟於2023年1月生效之《企業永續報告指令》(Corporate Sustainability Reporting Directive, CSRD),要求企業揭露的永續資訊需增加供應鏈資訊的透明度;美國證券交易委員會(SEC)於2024年3月6日通過規則,要求上市公司及公開發行公司揭露碳排放報告等氣候風險相關資訊。 為因應ESG帶來的挑戰,報告建議企業應採取流程化管理方式,了解產品進出口涉及的其他國家對ESG揭露資訊的要求,加以規劃並建置資料控管規範、進行人員教育訓練以及確認ESG相關資料的所有權歸屬。 由於碳排放量的計算沒有一致標準,且難以確保供應鏈上下游所提供的碳排資訊真實、未經竄改等問題,外界不容易信任企業永續發展書提倡的供應鏈減碳策略。國內企業可參考資策會科法所創意智財中心發布的《重要數位資料治理暨管理制度規範(EDGS)》,透過流程化管理,從制度規劃及留存供應鏈二氧化碳排放量或二氧化碳減量等產品相關資料歷程來增進ESG資料透明度。 本文同步刊登於TIPS網(https://www.tips.org.tw)

TOP