美國第二巡迴上訴法院於二月初判決知名品牌Ralph Lauren與美國馬球協會(U.S. Polo Association ) 自1984年開始爭執不休的馬球圖樣使用爭議由Ralph Lauren勝出,馬球協會不得使用polo圖樣於香氛與美妝產品類別,確認了2012年3月地方法院禁止馬球協會使用圖樣的判決。
自1890年以來主管美國馬球運動的美國馬球協會與Ralph Lauren的馬球員圖像恩怨可追溯回1984年,當時馬球協會以確認之訴贏得在未造成與Ralph Lauren知名的Polo品牌混淆的狀況下,馬球協會得製造授權商品。
在2012年的判決中,地方法院禁止美國馬球協會使用馬球員圖樣與POLO字樣在任何香水、美妝產品類別上,同時要求USPTO拒絕馬球協會部分的商標申請,該案法官裁決與香氛產品有關的圖樣侵害Ralph Lauren的商標權利,構成不公平競爭,同時也造成設計師與被授權人無法回復的損害。
馬球協會的律師團在上訴理由中主張:馬球員圖樣符合先前使用,同時,因為過往的判決賦予協會得使用該圖樣在服裝類產品,表示也可以使用在香氛類別,因為服裝跟香氛產品的市場是很相近的,但前述主張並不為第二巡迴上訴法院陪審團所認同。
英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2020年10月21日發布《資料主體近用權指引》(Guidance of Right of access),針對資料主體行使資料近用權之請求(Data Subject Access Request, DSAR),受請求之機構應如何進行識別判斷、簡化處理方式,以及特殊例外情況等法遵重點提供指導方針,並進行實例說明解析,以幫助受請求之機構在面臨資料主體之近用權請求時能快速且有效的處理。 英國「個人資料保護法」(The Data Protection Act 2018)依據歐盟「一般資料保護規則」(GDPR)於2018年重新修訂,其中資料近用權更是對於資料主體相當重要的基本權利,進而影響受請求之機構必須了解如何有效率的處理資料近用權之請求,並確實履行其在法規上所要求的保護義務,主要分為三點: 在資料主體確認其資料近用權所欲請求的範圍之前,受請求之機構依法應回覆時限應予以暫停,以利受請求之機構能有更充裕完整的時間釐清及回應資料主體之近用權請求。 為了避免受請求之機構耗費大量時間判斷何謂「明顯過度之請求」(manifestly excessive request),該指引提供相關定義說明及判別標準。 針對「明顯過度之請求」收取處理費用所包含的項目,例如受請求之機構處理請求所增加人力行政成本,在受請求之機構收取處理費用時可將其納入斟酌。
敏感科技保護「敏感科技」的普遍定義,係指若流出境外,將損害特定國家之安全或其整體經濟競爭優勢,具關鍵性或敏感性的高科技研發成果或資料,在部分法制政策與公眾論述中,亦被稱為關鍵技術或核心科技等。基此,保護敏感科技、避免相關資訊洩漏於國外的制度性目的,在於藉由維持關鍵技術帶來的科技優勢,保護持有該項科技之國家的國家安全與整體經濟競爭力。 各國立法例針對敏感科技建立的技術保護制度框架,多採分散型立法的模式,亦即,保護敏感科技不致外流的管制規範,分別存在於數個不同領域的法律或行政命令當中。這些法令基本上可區分成五個類型,分別為國家機密保護,貨物(技術)之出口管制、外國投資審查機制、政府資助研發成果保護措施、以及營業秘密保護法制,而我國法亦是採取這種立法架構。目前世界主要先進國家當中,有針對敏感科技保護議題設立專法者,則屬韓國的「防止產業技術外流及產業技術保護法」,由產業技術保護委員會作為主管機關,依法指定「國家核心科技」,但為避免管制措施造成自由市場經濟的過度限制,故該法規範指定應在必要的最小限度內為之。
英國資訊委員辦公室(ICO)發布沙盒執行過程中所觀察到的關鍵議題2019年9月英國資訊委員辦公室(Information Commissioner's Office, ICO)啟動沙盒計畫(ICO Sandbox)測試階段(beta phase),由ICO所選10個測試專案,透過解決當今社會問題,例如如何減少暴力犯罪、大學如何促進學生的心理健康、新技術如何改善醫療保健等,期能促進公眾利益。 各專案在滿足創新性和可行性前提下,同時也面臨著複雜的資料保護議題,因此ICO持續與各專案溝通,提供其應用現有個資保護指引之建議,如歐盟一般資料保護規則之資料保護影響評估指導文件(Guide to the GDPR - Data protection impact assessment)、資料保護自我評估工具包(Data protection self-assessment toolkit)等。自2019年3月底開始(受理申請)迄今,ICO沙盒執行過程中所觀察到的關鍵議題如下: 公部門資料應用效益:部份參與者正在克服與公部門進行歷史資料共享,或是如何整合應用大數據等。個人資料與新技術應用,必須與資料主體的權利和自由進行權衡。 同意:確保各方對於「同意」(Consent)之理解,以弭平差異,同時向公眾提供透明資訊。 新技術的挑戰:應用語音生物辨識(voice biometrics)、臉部辨識技術(facial recognition technology, FRT)等,需要在適當基礎上處理特殊類別資料。 資料分析(Data analytics):以符合資料保護的方式進行資料分析,處理特殊類別資料的適法性,評估處理過程中的風險,並檢查可能用於資料分析的資料來源,確保符合目的之應用。 未來的6個月,ICO將持續與各專案合作,使其為有效的解決方案,為公眾提供創新合規之產品與服務,並成為未來結合資料保護和創新應用之規劃藍圖,以奠定隱私保護的基石。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。