2015年12月3日美國聯邦巡迴上訴法院(CAFC)對澳洲科學暨工業研發組織(CSIRO)控告美國網路設備大廠思科系統(Cisco Systems)所製造與販賣的IEEE 802.11a、802.11g、802.11n侵害其美國第5,487,069 號專利(以下簡稱系爭專利)一案撤銷原判決並發回重審。
其爭點在於:
1. Cisco主張區法院未採用標準必要專利慣用之最小可銷售專利實施單位(smallest salable patent-practicing unit)作為合理授權金計算基礎。
2. 區法院法官未審酌系爭專利納入標準化的情形及未就Georgia-Pacific 15項分析要素進行修改。
3. 區法院未適當考慮CSIRO與Radiata間的技術授權協議。
CAFC將本案撤銷發回重審,其理由如下:
1.本案不適用最小可銷售專利實施單位
CAFC認為最小可銷售專利實施單位非唯一的計算合理授權金的計算方式,故仍應考量個案不同而採不同的計算方式;其重點在於應將系爭專利與非系爭專利之技術特徵價值進行適當的區分,比較過去實際授權個案,判定系爭專利技術特徵在整體產品中的價值比例,確保權利金計算的正確性。
2.針對標準化專利應考量系爭專利受標準化的情況
依據美國專利法第284條規定,系爭專利自身的價值應與標準化後所生的附加價值加以區別,使其僅反映系爭專利為系爭侵權產品所帶來的價值。而原審法院計算系爭專利的合理授權金時,並未排除其他無關的技術特徵及區分系爭專利標準化後所帶來的附加價值。
3. 應審酌CSIRO與Radiata間的技術授權協議
Radiata為CSIRO為進行專利商品化而成立之子公司,後Radiata於2001年為Cisco所併購,並仍依據CSIRO與Radiata間的技術授權協議以每單位晶片產品為基礎授權金的計算方式,故其時間與區法院以假設性協商之可能發生時間點相同,故區法院未加以考慮乃係明顯錯誤。
本文為「經濟部產業技術司科技專案成果」
經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。
歐洲個人資料保護委員會發布數位服務法與一般資料保護規則相互影響指引「歐洲資料保護委員會」(European Data Protection Board, EDPB)於2025年9月12日發布《數位服務法》(Digital Services Act, DSA)與《一般資料保護規則》(General Data Protection Regulation, GDPR)交互影響指引(Guidelines 3/2025 on the interplay between the DSA and the GDPR)。這份指引闡明中介服務提供者(intermediary service providers)於履行DSA義務時,應如何解釋與適用GDPR。 DSA與GDPR如何交互影響? 處理個人資料的中介服務提供者,依據處理個資的目的和方式或僅代表他人處理個資,會被歸屬於GDPR框架下的控制者或處理者。此時,DSA與GDPR產生法規適用的交互重疊,服務提供者需同時符合DSA與GDPR的要求。具體而言,DSA與GDPR產生交互影響的關鍵領域為以下: 1.非法內容檢測(Illegal content detection):DSA第7條鼓勵中介服務提供者主動進行自發性調查,或採取其他旨在偵測、識別及移除非法內容或使其無法存取的措施。指引提醒,中介服務提供者為此採取的自發性行動仍須遵守GDPR要求的處理合法性,而此時最可能援引的合法性依據為GDPR第6條第1項第f款「合法利益」(legitimate interests)。 2.通知與申訴等程序:DSA所規定設通報與處置機制及內部申訴系統,於運作過程中如涉及個資之蒐集與處理,應符GDPR之規範。服務提供者僅得蒐集履行該義務所必須之個人資料,並應確保通報機制不以通報人識別為強制要件。若為確認非法內容之性質或依法須揭露通報人身分者,應事前告知通報人。同時,DSA第20條與第23條所規範之申訴及帳號停權程序,均不得損及資料主體所享有之權利與救濟可能。 3.禁止誤導性設計模式(Deceptive design patterns):DSA第25條第1項規範,線上平台服務提供者不得以欺騙或操縱其服務接收者之方式,或以其他實質扭曲或損害其服務接收者作出自由且知情決定之能力之方式,設計、組織或營運其線上介面,但DSA第25條第2項則宣示,線上平台提供者之欺瞞性設計行為若已受GDPR規範時,不在第25條第1項之禁止範圍內。指引指出,於判斷該行為是否屬 GDPR 適用範圍時,應評估其是否涉及個人資料之處理,及該設計對資料主體行為之影響是否與資料處理相關。指引並以具體案例補充,區分屬於及不屬於 GDPR 適用之欺瞞性設計模式,以利實務適用。 4.廣告透明度要求:DSA第26條為線上平台提供者制定有關廣告透明度的規範,並禁止基於GDPR第9條之特別類別資料投放廣告,導引出平台必須揭露分析之參數要求,且平台服務提供者應提供處理個資的法律依據。 5.推薦系統:線上平台提供者得於其推薦系統(recommender systems)中使用使用者之個人資料,以個人化顯示內容之順序或顯著程度。然而,推薦系統涉及對個人資料之推論及組合,其準確性與透明度均引發指引的關切,同時亦伴隨大規模及/或敏感性個人資料處理所帶來之潛在風險。指引提醒,不能排除推薦系統透過向使用者呈現特定內容之行為,構成GDPR第22條第1項的「自動化決策」(automated decision-making),提供者於提供不同推薦選項時,應平等呈現各項選擇,不得以設計或行為誘導使用者選擇基於剖析之系統。使用者選擇非剖析選項期間,提供者不得繼續蒐集或處理個人資料以進行剖析。 6.未成年人保護:指引指出,為了符合DSA第28條第1項及第2項所要求於線上平台服務中實施適當且相稱的措施,確保未成年人享有高度的隱私、安全與保障,相關的資料處理得以GDPR第6條第1項第c款「履行法定義務」作為合法依據。 7.系統性風險管理:DSA第34與35條要求超大型在線平台和在線搜索引擎的提供商管理其服務的系統性風險,包括非法內容的傳播以及隱私和個人數據保護等基本權利的風險。而指引進一步提醒,GDPR第25條所設計及預設之資料保護,可能有助於解決這些服務中發現的系統性風險,並且如果確定系統性風險,根據GDPR,應執行資料保護影響評估。 EDPB與其他監管機關的後續? EDPB的新聞稿進一步指出,EDPB正在持續與其監管關機關合作,以釐清跨法規監理體系並確保個資保護保障之一致性。後續進一步的跨法域的指引,包含《數位市場法》(Digital Markets Act, DMA)、《人工智慧法》(Artificial Intelligence Act, AIA)與GDPR的相互影響指引,正在持續制定中,值得後續持續留意。
英國資訊專員辦公室對連鎖藥局違反GDPR存放敏感個資作成裁罰首例英國資訊專員辦公室(Information Commissioner's Office, ICO)於2019年12月20日發布首宗依據歐盟一般資料保護規則(General Data Protection Regulation, GDPR)之裁罰。 本案源於英國藥物及保健產品管理局(Medicines and Healthcare products Regulatory Agency, MHRA)接獲投訴前往倫敦當地一家名為Doorstep Dispensaree Ltd之連鎖藥局進行藥品違規調查,卻意外發現其後院存放大量敏感個資文件,約五十萬個文件檔案皆未做任何資料檔案保護措施,上面更記載名字、地址、出生日期、NHS號碼、醫療資料及處方籤等患者之個人資料,旋即通報英國資訊專員辦公室展開調查。最終英國資訊專員辦公室以該藥局違反歐盟一般資料保護規則(General Data Protection Regulation, GDPR)第5條1項第f款、第24條第1項及第32條,裁罰275,000英鎊。其裁罰理由如下: 一、隱私政策並不符合要求,如未述明蒐集個人資料之類別,未訂定個資保存期限,當事人告知聲明不完備,無當事人權利行使等。 二、無適當安全維護措施 三、涉及敏感性個資,違法情狀嚴重 四、未積極配合調查 五、影響層面甚深,導致該藥局配合之上百家療養院,近千名當事人個資受損害。 此為英國資訊專員辦公室首宗依據歐盟一般資料保護規則確定裁罰之案例且涉及敏感性個資,有其指標性。除此之外,英國航空與萬豪酒店之個資外洩案亦欲依GDPR進行裁罰,實值持續關注後續發展。
歐盟將通過新的指令加強科學研究所中所使用之動物的保護2010年9月歐洲議會通過第2010/63/EU號指令(DIRECTIVE 2010/63/EU)修正文本,新的指令將修正第86/609/EEC 指令(Directive 86/609/EEC)原有規定,以加強對科學實驗用動物的保護。 2010年5月世界動物健康組織(the World Organisation for Animal Health, OIE)第78屆 大會中通過了第一個國際動物福祉標準,該標準納入OIE陸棲動物健康法典規範(OIE Terrestrial Animal Health Code)做為研究與教育用動物保護的準則,歐盟作為主要的提案者於是加速規範修正作業以回應OIE之承諾。新指令將規定歐盟各國主管機關必須在同意研究採用動物實驗前,評估其他研究方式的可能性並進行倫理評估,如需採用動物實驗應儘可能減少被試驗動物之痛楚,此外新指令也確保被實驗動物享有應有的生存環境,如適當大小的籠子等的要求。 新指令適用範圍將包括教育、訓練與基礎研究用的動物,其包含所有人類以外的活體脊椎動物以及某些可能感受痛楚的物種。靈長類動物如人猿的實驗也被禁止,除非為了該物種本身之生存所需,或者其他可能造成人類生存威脅或疾病之避免所必要方得於各國政府同意下進行之。新的指令將擴大禁止使用人猿、黑猩猩、彌猴等靈長類動物的實驗,除非有證據顯示其他物種的實驗無以達成靈長類動物實驗所能達成之目的,但也有成員國表示擴大靈長類動物實驗的限制將對於神經退化性疾病如阿茲海默症等的研究造成阻礙。 動物實驗的3R原則—取代、減量與改善(replacing, reducing, and refining)在第2010/63/EU號指令修正文本都已有相關規範,歐盟執委會表示歐盟將繼續致力於強化實驗用動物的福祉,同時為了確保新法的貫徹,新指令將授權設立歐盟層級的示範實驗室(Reference Laboratory at European Union level)協調各國採取替代動物實驗的方式。歐盟執委會表示新的指令將會在今年秋天公布。