透過輸入網址或點選超連結(Hyperlink)方式找尋資料,是網路運作基礎之一。而單純以Hyperlink方式另開新視窗呈現其他網頁,由於只是方便快速連結到其他網站或網頁內容,並無涉及重製行為,因此實務上普遍認為並無侵害著作權的問題。然而瑞典Attunda地方法院於2016/10/13,就一則使用Hyperlink方式之案例卻認定有侵害著作權。
此案例起因於瑞典原告Jonsson在非洲Zambezi河上,拍攝到高空彈跳發生意外之影片,後該影片未得原告同意遭他人上傳至YouTube網站。被告比利時L’Avenir新聞網站報導此事件時,於文中提供Hyperlink(lånkat från hemsidan till YouTube),使讀者能連結到YouTube上之該則影片。本案原告主張並無授權上傳YouTube影片,也無允許被告在其網路報導得以提供Hyperlink連接至YouTube網站影片,以此要求L’Avenir新聞網站負擔侵害其公眾傳輸權之責任。
瑞典Attunda地方法院引用歐盟法院於2016/09/08GS Media, C-160/15案中關於Hyperlink判決見解,認定若超連結之內容有權利人合法授權,Hyperlink行為固無侵權可言,但若連結之內容未受權利人合法授權時,需先判定行為人是否是以營利為目的;若為肯定,則推定行為人明知其內容違法、Hyperlink行為構成公眾傳輸行為,但行為人可舉證推翻,證明其不知內容違法而未構成侵權。本案由於超連結內容是未經由原告授權,且瑞典Attunda法院認定L’Avenir新聞網站以營利為目的使用Hyperlink,於網站無法證明不知內容非法情況下,因此判定被告構成侵權。
瑞典法院所引用的歐盟判決引起諸多批評,論者有謂超連結功能是網路運作基礎之一,該判決認為以營利目的使用即應推定對內容違法有明知,不僅「營利目的」此一條件之內涵為何,需待後續更多判決個案方可確定具體內容;而且造成所有線上新聞網站擬使用超連結影片及內容、又無法得知內容是否有被合法授權時,必須承擔更大的侵權風險;因此產生的自我審查,將弱化網路之基本運作功能,且使言論自由及通訊自由受到侵害。
日本數位廳發布資料治理指引,協助企業運用資料提升企業價值 資訊工業策進會科技法律研究所 2025年09月05日 隨著AI迅速普及已成為不可逆轉的趨勢,經濟與社會產生重大變革,手機、家電及各種智慧裝置大量蒐集資料,似已成為維持經濟與社會運作不可或缺的重要要素,在國際上已出現如歐洲共同資料空間(Common European Data Space)等先進的資料運用案例,日本亦開始推動企業跨領域資料運用,藉此提升企業生產力與附加價值[1]。 壹、事件摘要 日本數位廳(デジタル庁)於2025年6月20日發布資料治理指引(データガバナンス・ガイドライン),以企業經營者為適用對象,歸納總結資料治理之必要性、應採取之做法,與實踐治理過程中應留意之要點,協助企業推動數位轉型,發揮資料最大效用,持續提升企業價值,並進一步實現超智慧社會[2](Society 5.0)願景[3]。 貳、指引重點 本指引歸納總結實踐資料治理的四大支柱,概述如下: 一、設計符合跨境傳輸資料實際狀況之業務流程 資料共享與協作的主要目的是推動數位轉型與提升企業價值,因此,運用跨境資料時,需要調查當地國家或地區法規,釐清國際規範,並預測後續法規動向,克服法規限制。為評估運用跨境資料之潛在風險,則須透過如顧問公司、諮詢公司等第三方外部機構進行調查與監控,採取適當風險因應措施。為明確責任,須事先與資料共享之利害關係人,將瑕疵擔保責任透過契約與相關規定明文化。在修改業務流程時,亦須與相關組織及利害關係人共享資訊,確保資料在生命週期中的可追溯性[4]。 二、確保資料安全(データセキュリティ) 以資料生命週期為基礎,掌握運用跨境資料可能產生之風險,並依照相關組織與利害關係人值得信賴之程度,進行風險分析制定因應策略。針對業務流程中取得的資料,應限制在資料產生者允許之範圍內,始得進行運用,以維護資料使用正當性。此外,亦須特別留意資料完整性,確保資料來源值得信賴且未受到偽冒,以及資料內容未遭到竄改或洩漏[5]。 三、提升資料成熟度(データマチュリティ) 制定並推動可提升資料成熟度[6]之方針,持續改善流程,將資料價值最大化,並將風險最小化,提升企業綜合能力。資料長(Chief Data Officer, CDO)須發揮領導能力,建立能迅速因應變化的體制,明確各組織相關負責人與其角色,並推動具備資料相關技能之人才培育招聘計畫。資料長亦須分析導入如AI等先進技術之費用效益,向經營者提出建議。除了公司自身狀況會影響資料成熟度外,亦可能受到資料共享與協作之利害關係人的資料成熟度水準影響。因此,公司亦須將採取之具體措施與相關資訊分享予利害關係人,並向社會公開公司目前資料成熟度水準,持續強化企業與利害關係人及社會之間的相互信賴程度[7]。 四、制定並定期檢討AI等先進技術運用行動方針 為使AI等先進技術發揮最大力量,並降低對社會與個人可能造成的負面影響,企業應參考經濟產業省(経済産業省)於2025年3月28日發布之AI業者指引第1.1版[8](AI事業者ガイドライン第1.1版),並考量個人資料保護、機敏資料保護、透明度、可問責等重要因素,針對涉及資料運用的各種實務運用場景,由CDO主導制定運用AI等先進技術運用行動方針(AIなどの先端技術の利活用に関する行動指針),並適時檢討持續改善內容[9]。 參、事件評析 當資料留存在企業內部未被有效運用時,不僅會成為企業和產業發展之阻礙,也將導致社會整體效率低落。本指引歸納總結實踐資料治理的四大支柱。為達成協助企業運用資料推動數位轉型,提升企業價值之目標,除了需要企業管理階層主導,亦須獲得公司內部與利害關係人之理解與支持。企業應積極與其他企業、組織和機構進行資料共享與協作,積極參與資料治理,提高產品與服務價值及企業聲譽,進而促進社會永續性發展[10]。 隨著國際上已出現先進資料運用案例,我國亦須關注資料運用國際趨勢推動創新發展,日本推動企業跨領域運用資料之做法,亦可為我國未來實踐資料治理提供借鏡。 [1]〈データガバナンス・ガイドライン〉,デジタル庁,頁2-3,https://www.digital.go.jp/assets/contents/node/information/field_ref_resources/71bf19c2-f804-488e-ab32-e7a044dcac58/b1757d6f/20250620_news_data-governance-guideline_01.pdf (最後瀏覽日:2025/09/02)。 [2]〈Society 5.0〉,内閣府,https://www8.cao.go.jp/cstp/society5_0/index.html (最後瀏覽日:2025/09/02)。 [3]前揭註1。 [4]同前註,頁13。 [5]同前註,頁15-16。 [6]資料成熟度係指企業根據其戰略或經營需求,有效運用資料的能力。可參閱同前註,頁5。 [7]同前註,頁18-19。 [8]〈AI事業者ガイドライン〉,経済産業省,https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/20240419_report.html (最後瀏覽日:2025/09/02)。 [9]前揭註1,頁20-23。 [10]同前註,頁24-25。
加州立法機關提出社群媒體青少年成癮法草案,促進兒童身心福祉社群媒體是溝通資訊之重要工具。但部分社群媒體向用戶投放易使人成癮的資訊,對兒童和青少年福祉形成重大風險。據此緣由,美國加州立法機關於2024年1月29日提出社群媒體青少年成癮法草案(Social Media Youth Addiction Law),規定社群媒體除非能合理確定用戶非未成年人,或取得未成年用戶家長同意,否則不得向用戶提供易使人成癮的資訊。 該草案將網路或應用程式中,依用戶特徵或習慣,優先顯示的多片段資訊,定義為易使人成癮的資訊(addictive feed)。除非該資訊符合以下例外條件: (1) 用戶用以搜尋資訊的關鍵字不會被使用的設備記憶,且該資訊與用戶過去的社群媒體使用行為無關。 (2) 是因用戶隱私設定、設備規格、未成年人限制而呈現的資訊。 (3) 是因用戶明確要求而提供,且不易使人成癮的資訊。 (4) 是用戶間直接且非公開之通訊組成的資訊。 (5) 是同一資訊來源,且在音檔或影片形式下,不會自動連續播放的資訊。 該草案亦規定投放易使人成癮資訊的社群媒體,不得在深夜至凌晨時段、上學至放學時段,以及開學期間的週一到週五,向未成年用戶發送通知,除非已取得未成年用戶家長同意。 最後,該草案規定投放易使人成癮資訊的社群媒體每年向公眾揭露未成年用戶總數量、家長同意接收易成癮資訊的未成年用戶數量等資訊。該規定有利大眾監督社群媒體對法規之遵循情況,並促進社會對兒童、青少年身心健康的關心。
標準必要專利法制發展及對應策略 英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。