澳洲雪梨聯邦法院於本月 24 日對分散式 P2P 業者 Kazaa 發出命令,要求 Kazaa 營運商 Sharman Networks 必須在 10 日內( 12 月 5 日之前),在其提供下載的軟體中加入關鍵字過濾技術( keyword filter system ),否則應立即停止營運。市場人士普遍認為 Kazaa 暫時停止營運的可能性相當地高。 源起於去年底澳洲當地唱片業者控告 Kazaa 一案,今年 9 月 5 日澳洲聯邦法院認定 Kazaa 營運商 Sharman Networks 構成著作權侵害,除判決唱片業者勝訴外,法院並判定 Kazaa 必須在 2 個月內修改其軟體程式,加入相關過濾技術,以避免使用者傳輸違法音樂檔案;另一方面,判決賦予唱片業界得提交 3000 個關鍵字名單 ( 包括了曲目及歌手姓名 ) 要求 Kazaa 加以過濾的權利,該名單並得每兩週加以更新。 直至本月 24 日, Kazaa 仍表示其無法控制高達 100 萬使用者的個人行為,拒絕修改其提供下載的 P2P 軟體,導致聯邦法院不得不下達最後通牒。 Kazaa 營運商 Sharman Networks 雖已提起上訴,但在現時關鍵字過濾技術實施不易之下,澳洲 Kazaa 恐將步上已於本月 7 日關閉的 Grokster 後塵。
Web2.0 網站平台管理之法制議題研析-以網路實名制與揭露使用者身份 歐盟公布2016年歐洲創新計分板報告為確保各會員國能有效執行歐盟科研架構計畫(Horizon 2020),歐盟執委會每年針對各會員國整體創新能力及研發活動進行評估,據此研提創新競爭力排名,並定期公布歐盟創新計分板報告(European Innovation Scoreboard, EIS)。而觀諸最新公布2016歐盟創新計分板報告((European Innovation Scoreboard 2016),可歸納以下三項要點: (一) 2016歐盟創新研發能力成長趨緩 由於研發資金政策之限制以及英國脫歐影響下,相較於去年(2015)歐盟創新計分板報告(European Innovation Scoreboard 2015, EIS)之統計,今年度(2016)歐盟整體之創新研發能力成長趨緩。 (二) 2016創新研發先驅仍為瑞典,部分國家仍有大幅度之成長 而今年之歐盟創新計分板報告在整體創新競爭力排名上,第一名仍為瑞典,其次則為丹麥,芬蘭,德國和荷蘭。而相較於去年之排名,拉脫維亞、馬爾他、立陶宛、荷蘭等國家則有顯著之成長。 (三) 在個別指標項目中,會員國創新表現亦有不同 此外,獨立創新指標項目中,各會員國亦有不同之創新表現,例如:在「創新人力資源」及「學術研究項目」中,由瑞典榮獲最具競爭力之國家;而在「創新財政環境」項目中第一名為芬蘭;「創新私人投資」、「創新網絡」及「中小企業創新」等三大項目中,則分別由德國、比利時及愛爾蘭奪冠。
英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議: (一)關於人工智慧及應用界定與發展 人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。 (二)未來對社會及政府利益及衝擊 人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。 目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。 在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。 (三)關於相關道德及法律風險管理課題 人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考: (1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。 (2)調適由人工智慧作決策行為時的歸責概念和機制。 有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。 針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。 人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。