歐盟執委會(European Commission)日前再次呼籲歐盟各國加強處理公眾線上隱私威脅的問題。歐盟執委會所公佈的一項報告指出,雖然近年來歐盟各國皆有相關措施,例如課予垃圾郵件發布者罰款、有期徒刑等,但各國法令仍有相當大的差異。這項報告也認為,各國相關法律在歐盟電信法的改革之下,應更為明確且一致,並加強跨國合作。
歐盟執委會電信委員Viviane Reding表示,雖然歐洲的反垃圾郵件相關立法已有七年,但大部分的歐盟民眾仍受垃圾郵件影響。根據該報告,歐盟從2002年即已立法禁止發佈垃圾郵件及使用偵察軟體,但目前仍有約65%的民眾飽受垃圾郵件騷擾。
歐盟執委會的報告指出 :
本文為「經濟部產業技術司科技專案成果」
主權專利基金(Sovereign Patent Fund,以下稱SPF)是一個由國家政府設立的投資型基金(含民間/企業資金投入),目的在於取得專利資產,進行全球專利布局,以提升國家經濟利益。目前,全球3大具領導地位的SPF實體為:法國France Brevets (以下稱FB)、韓國Intellectual Discovery (以下稱ID),及日本IP Bridge (以下稱IPB)。 今年5月,加拿大Digital Entrepreneurship & Economic Performance Centre針對FB、ID,及IPB的發展發佈了一份報告,「Mobilizing National Innovation Assets: Understanding the Role of Sovereign Patent Funds」,分析了3家SPF所擁有的專利資產以及專利佈局趨勢,主要有以下重點: 一、 3家SPF之專利資產多為美國專利,分別佔IPB 92%、ID 82%、FB 48%。 二、 FB的專利讓與案件數量最少,顯示法國傾向以授權方式營運。 三、 IPB在專利組合上最大貢獻者為Panasonic及其關係企業,83%專利組合是來自Panasonic;FB最大貢獻者是Nemoptic;ID是Electronics & Telecommunications Research Institute 。 四、 從科技發展的角度觀察,3家SPF的專利布局重心在國際專利分類(Intellectual Patent Classification,IPC)中的電學(electricity)和物理(physics);FB、IPB著重電器通信技術(electric communication techniques),ID著重基本電器元件(basic electric elements)。 整體而言,3家SPF從以往專注於取得專利資產、吸引投資,到近期開始利用侵權訴訟與授權獲得經濟回饋,SPF模式已越受全球關注。除了加拿大政府的智庫DEEP建議其政府應設置SPF以拓展智慧財產權政策外,印度也將SPF納為智財政策討論重點,韓國也將再設立一個由國內開發銀行全力資助的SPF。 根據上述SPFs的觀察,對於我國而言,無論是創智智權管理顧問公司,或其他型態之智財投資基金,都必須先選定專利布局的核心對象,才能有效取得、收購國內、外相關專利資產,以全球性的智財戰略帶動國家發展。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。
資通訊安全下之訊息分享與隱私權保障—簡析美國2015年網路保護法 Facebook支付5.5億美元解決涉及侵犯隱私的訴訟案使用過Facebook(臉書)上傳照片時,不難發現其內建功能可透過臉部辨識「自動標記」(tag)好友的功能,建議用戶標記照片內的人物,而自從該功能於2011年啟用後,始終存有侵害用戶隱私權的疑慮。本案訴訟自2015年開始,及針對臉書「自動標記」的標籤建議功能爭論。美國於2018年經美國聯邦法院裁定,該功能在未經用戶同意的情況下蒐集並存儲相關使用者的生物特徵資料(biometric data),違反美國伊利諾州(Illinois)生物識別資料隱私法(Biometric Information Privacy Act)。雖然臉書已開始公開與用戶說明其可選擇關閉其識別功能,並針對上述聯邦法院判決提出上訴,卻仍於2019年8月敗訴。因此臉書同意以5.5億美元和解,用於支付伊利諾州的用戶(符合條件的)及訴訟相關費用。