美國國會議員Markey與Rockefeller於2014年2月提出S. 2025:「資料仲介商有責與透明法草案」(Data Broker Accountability and Transparency Act),以促進對於消費者保護,與資料仲介產業發展間的平衡。該草案預將授權「美國聯邦貿易委員會」與各州據以監督與執行。
該草案對「資料仲介商」(以下簡稱Data Broker)加以定義為係以銷售、提供第三方近用為目的,而蒐集、組合或維護非其客戶或員工之個人相關資料的商業實體;更進一步的禁止Data Broker以假造、虛構、詐欺性的陳述或聲明的方式(包括提供明知或應知悉為偽造、假造、虛構、或詐欺性陳述或聲明的文件予以他人),自資料當事人取得或使其揭露個人相關資料。
該草案亦要求Data Broker建置及提供相關程序、方式與管道,以供資料當事人進行下列事項:
1.檢視與確認其個人相關資料(除非為辨識個人為目的的姓名或住址)正確性(但有其他排除規定)。
2.更正「公共紀錄資訊」(Public Record Information)與「非公共資訊」(Non-public Information)
3.表達其個人相關資料被使用的時機與偏好。例如在符合一定條件下,資料當事人得以「選擇退出」(Opt Out)其資料被Data Broker蒐集或以行銷為目的而販售。
於此同時,加州參議院亦已於2014年5月通過S.B. 1348:Data Brokers的草案,該草案要求資料當事人擁有檢視Data Broker所持有的資料,並得要求其於刪除提出後10天內永久刪除;當資料一經刪除,該Data Broker不得再行轉發或是將其資料販售給第三人。加州參議院並提案,該法案通過後將涵蓋適用至2015年1月1日所蒐集的資料,且個人於Data Broker每次違反時得提出$1,000美元的損害賠償訴訟(律師費外加)。雖然該草案受到隱私權保護團體的支持,卻受到加州商會(California Chamber of Commerce)與直銷聯盟(Direct Marketing Association)的反對。加州在Data Broker的立法規範上是否能超前聯邦的進度,讓我們拭目以待吧。
本文為「經濟部產業技術司科技專案成果」
Burberry是一家專門生產奢華服裝、圍巾、提袋等產品之品牌公司,於今年3月3日在Manhattan聯邦法院向以低價經營為主的TJX Cos公司提起商標侵權訴訟,因旗下TJ Maxx、Marshalls及HomeGoods商店,販售許多各式各樣之仿冒品。 Burberry以稱為” Burberry Check (Burberry格紋)”聞名,其格紋是以十字交叉設計並使用駝色、紅色、黑色及白色作為商標。並聲明其商標是著名的,且象徵Burberry是專門生產及提供高品質奢華產品的公司。此一訴訟指控TJX Cos其零售商於過去四年販售許多商標侵權之產品,如:外套、相框、polo衫、圍巾及旅行箱等。更指出TJX Cos是以試圖”吸引Burberry之目標客戶,進而造成Burberry的損失作為其獲利的來源。”然而TJX Cos之發言人Sherry Lang發表聲明,針對Burberry的指控表示”遺憾”且”並非意圖欺騙任何人,使其相信他們所購買的是Burberry的產品”。現已聯繫此爭議中所販售相關產品之零售商。 目前Burberry正尋求終止此侵權產品之販售,銷毀未授權產品,並要求TJX Cos作改善廣告聲明、三倍損害賠償及其他許多矯正措施。 於Burberry提起訴訟的同一周內,以手提袋及公事包製造聞名之公司Coach也向低價折扣零售商Kmart Corp,提起類似之侵權訴訟。
CAR-T細胞治療產品Yescarta美國專利侵權訴訟逆轉勝,CAFC認定專利不符書面說明要件而無效Gilead Sciences之子公司Kite Pharma(以下簡稱Kite)所推出之Yescarta®(Axicabtagene Ciloleucel)為治療復發型或難治型瀰漫性大B細胞淋巴瘤(Diffuse Large B-Cell Lymphoma, DLBCL)之CAR-T細胞治療產品,其為美國FDA第二個核准上市之CAR-T產品。 上述產品於2017年獲美國FDA核准上市後,Juno therapeutics公司隨即於美國加州中區聯邦地院起訴Kite,主張Yescarta侵害Juno therapeutics之美國7,446,190號專利「編碼嵌合T細胞受體之核酸(Nucleic acids encoding chimeric T cell receptors)」(以下簡稱190專利),2019年陪審團認定Kite成立專利侵權,裁定損害賠償額為7.78億美元;於2020年法院進一步認定Kite有蓄意侵權行為,再判定需增加50%之損害賠償金,使損害賠償總額超過11億美元。 本案上訴後,美國聯邦巡迴上訴法院(US Court of Appeals for the Federal Circuit, 以下簡稱 CAFC)於2021年8月26日推翻原審判決,認定190專利不符書面說明(Written Description)要件而無效。CAFC認為190專利請求項所請求之單鏈可變區片段抗體(single-chain variable fragment, scFv)結合部涵蓋過廣,包括可結合「任何」標的之「任何」scFv,惟其說明書未能提供其中之代表性物種(species)、或界定其共通結構特徵,於說明書中僅揭露可結合兩種不同標的之兩種scFv作為實施例,但未能說明此二物種如何、或是否能夠代表其所請求的整個上位之屬(genus)。CAFC指出,若要滿足書面說明要件之要求,說明書應揭露與代表性數量之標的結合之特定scFv物種,Juno雖提出專家證詞主張此二scFv實施例已具代表性,惟CAFC仍認為該證詞過於籠統而未能解釋何種scFv將與何種標的結合。CAFC指出,書面說明要件之目的在於確保專利排他權範圍不會超出發明人記載於說明書中之貢獻範圍,190專利發明人證稱其申請發明時只使用過說明書所載之兩個scFv實施例,且說明書未提供確認何種scFv將結合至何種標的之方法與指導,但190專利卻請求可與任何標的結合之scFv,因此,190專利之揭露內容未能證明發明人擁有結合至各種選定標的之所有可能scFvs,無法滿足書面說明要件之要求。 醫藥專利以上位請求項(genus claim)尋求保護時,可能因說明書記載內容不容易滿足書面說明與可據以實施(Enablement)要件而受到挑戰。除本案外,美國近期亦有數件醫藥專利因不符書面說明要件與可據以實施要件而被宣告無效,如Amgen Inc. v. Sanofi(Fed. Cir. 2021)、Idenix Pharmaceuticals LLC v. Gilead Sciences Inc.(Fed. Cir. 2019)、Enzo v. Roche(Fed. Cir. 2019),未來醫藥專利以上位請求項尋求保護是否會變得更加困難,值得繼續觀察。
美國平等就業機會委員會發布「評估就業篩選程序中使用軟體、演算法及AI之不利影響」技術輔助文件美國平等就業機會委員會(Equal Employment Opportunity Commission, EEOC)於2023年5月18日發布「根據 1964 年《民權法》第七章評估就業篩選程序中使用軟體、演算法和AI之不利影響」(Assessing Adverse Impact in Software, Algorithms, and Artificial Intelligence Used in Employment Selection Procedures Under Title VII of the Civil Rights Act of 1964)之技術輔助文件(下簡稱「技術輔助文件」),以防止雇主使用自動化系統(automated systems)對求職者及員工做出歧視決定。 該技術輔助文件為EEOC於2021年推動「AI與演算法公平倡議」(Artificial Intelligence and Algorithmic Fairness Initiative)計畫的成果之一,旨在確保招募或其他就業決策軟體符合民權法要求,並根據EEOC 1978年公布之「受僱人篩選程序統一指引」(Uniform Guidelines on Employee Selection Procedures, UGESP),說明雇主將自動化系統納入就業決策所應注意事項。 當雇主對求職者與員工做出是否僱用、晉升、終止僱傭,或採取類似行動之決定,是透過演算法決策工具(algorithmic decision-making tool),對特定種族、膚色、宗教、性別、國籍或特定特徵組合(如亞洲女性),做出篩選並產生不利影響時,除非雇主能證明該決策與職位工作內容有關並符合業務需求,且無其他替代方案,否則此決策將違反《民權法》第七章規定。 針對如何評估不利影響,雇主得依UGESP「五分之四法則」(four-fifths rule),初步判斷演算法決策工具是否對某些族群產生顯著較低的篩選率。惟EEOC提醒五分之四法則推導出之篩選率差異較高時,仍有可能導致不利影響,雇主應依個案考量,使用實務常見的「統計顯著性」(statistical significance)等方法進一步判斷。 其次,當演算法決策工具係由外部供應商所開發,或由雇主授權管理人管理時,雇主不得以信賴供應商或管理人陳述為由規避《民權法》第七章,其仍應為供應商開發與管理人管理演算法決策工具所產生之歧視結果負責。 最後,EEOC鼓勵雇主應對演算法決策工具進行持續性自我評估,若發現該工具將產生不利影響,雇主得採取措施以減少不利影響或選擇不同工具,以避免違反《民權法》第七章。
金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。