標準必要專利與反托拉斯之成果運用法制-以高通案為例

刊登期別
第30卷,第8期,2018年8月
 
隸屬計畫成果
產業科技創新之法制建構計畫
 
摘要項目
  標準必要專利,為專利權人向標準必要專利組織,為公平、合理、無歧視的授權承諾(FRAND),以換取成為市場標準的獨占利益。一旦成為標準必要專利權人,市場力量將擴大,若同時搭配獨特商業模式的運作,恐引發違反反托拉斯規則之疑慮。然而,標準必要專利實係代表著智慧財產權的激勵與創新,與反托拉斯法促進自由競爭思想間呈現矛盾與合作的關聯,該如何維持兩者間的動態平衡,在不過度干預研發創新與成果運用產出下,仍保持市場競爭秩序,追求全體消費者的最大利益,是本文聚焦的重要議題。

本文為「經濟部產業技術司科技專案成果」

你可能會想參加
※ 標準必要專利與反托拉斯之成果運用法制-以高通案為例, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8110&no=55&tp=1 (最後瀏覽日:2026/01/20)
引註此篇文章
你可能還會想看
WhatsApp與英國ICO達成協議將停止與Facebook間之資料共享

  英國資訊專員辦公室(Information Commissioner's Office,簡稱ICO)在歐盟資料保護主管機關(European Data Protection Authorities) 針對WhatsApp與其母公司Facebook間進行資料共享之行為提出相關顧慮之後,於2016年8月就上開事件是否涉及違反英國資料保護法(Data Protection Act)啟動調查,調查結果終於在2018年3月14日出爐並且雙方達成協議。   ICO調查結果是WhatsApp並無正當且合法之理由與Facebook進行資料共享,惟並未對WhatsApp進行任何懲罰,原因乃是WhatsApp並未分享英國用戶之資料予Facebook,並未直接違反英國資料保護法,因為WhatsApp被定位在資料處理者(data processor),只要運作是合法的且不侵擾人們之人權,即可容許。不過WhatsApp仍向ICO承諾將停止分享其用戶個人資訊予Facebook,此協議將持續到GDPR生效為止,亦即此後WhatsApp與Facebook間之資料共享若符合GDPR之規範,則可在基於安全防護之目的下進行或是改善其產品與廣告行銷。   ICO調查專員Elizabeth Denham指出WhatsApp不應與Facebook間進行資料共享之理由有三:一、WhatsApp並未確認其與Facebook間所進行之個人資料分享係基於何種法律依據;二、WhatsApp並未向其用戶適當且公平地揭露其如何處理、分享用戶之資料;三、對於WhatsApp既有之用戶而言,WhatsApp與Facebook間資料共享之處理目的與當初WhatsApp獲取其用戶資料之目的,二者並不相符。   惟歐盟其他國家對於WhatsApp之處置可能不若英國寬容。例如,法國國家資訊自由委員會(Commission nationale de l'informatique et des libertes,簡稱CNIL)正對其採取執法行動,而漢堡資料保護與資訊自由委員會(Hamburg Commissioner of Data Protection and Freedom of Information)將案件提交到高等行政法院,該法院並已禁止Facebook使用從WhatsApp共享中所獲得之資料。

演算法歧視將適用於《紐澤西州反歧視法》

2025年1月9日美國紐澤西州檢查總長與民權部(Division of Civil Rights, DCR)聯合發布「演算法歧視指引」(Guidance on Algorithmic Discrimination and the New Jersey Law Against Discrimination),指出《紐澤西州反歧視法》(the New Jersey Law Against Discrimination, LAD)亦適用於基於演算法所衍生的歧視。 隨著AI技術日趨成熟,社會各領域已大量導入自動化決策工具,雖然它們能提高決策效率但也增加了歧視發生之風險。指引的目的在於闡述自動化決策工具在AI設計、訓練或部署階段可能潛藏的歧視風險,亦列舉出在各類商業實務情境中常見的自動化決策工具,並說明它們可能會如何產生演算法歧視。以下分別說明《紐澤西州反歧視法》適用範圍,以及與演算法歧視有關的行為樣態。 一、《紐澤西州反歧視法》之適用主體及適用客體 《紐澤西州反歧視法》禁止在就業、住房及公共場所等領域所發生的一切歧視行為,其適用主體相當廣泛,包含但不限於下列對象:雇主、勞工組織、就業仲介機構、房東、房地產經紀人、公共場所之經營或管理者、以及任何教唆或協助歧視行為之個人;而該法之適用客體亦有明確定義,為具有受保護特徵(如性別、族裔、身心障礙等)之自然人或法人。 此外指引特別說明,即便適用主體無意歧視、或其所使用之自動化決策工具係由第三方所開發,只要發生歧視行為依然違反《紐澤西州反歧視法》。這是因為《紐澤西州反歧視法》係針對歧視所帶來的影響進行規範,儘管無意歧視,其所帶來的影響並不一定比故意歧視還要輕微。 二、 歧視行為的三種樣態 1.差別待遇歧視 差別待遇歧視係指適用主體基於受保護特徵而對適用客體施予不同對待。舉例而言,若房東使用自動化決策工具來評估黑人潛在租戶,但不評估其他族裔的潛在租戶,則會因為其選擇性使用自動化決策工具而構成歧視。 2.差別影響歧視 差別影響歧視係指適用主體的政策或行為對適用客體造成不成比例的負面影響,且該政策或行為未能證明具有正當性、非歧視性、或不存在較少歧視性的替代方案,則該政策或行為構成歧視。例如,某商店利用臉部辨識技術來偵測過去曾有偷竊紀錄的顧客,但該系統對配戴宗教頭巾的顧客較容易產生誤判,此亦可能構成歧視。 3.未提供合理調整 合理調整係指身心障礙者、宗教信仰者、懷孕者以及哺乳者,在不會對適用主體造成過度負擔的前提下,得向其提出合理請求,以符合自身的特殊需求。以身心障礙員工為例,若雇主使用了自動化決策工具來評估員工的工作表現(例如監測員工的休息時間是否過長),在未考量合理調整的情況下,該工具可能會過度針對身心障礙員工進而構成歧視。 為減少演算法歧視發生頻率,「演算法歧視指引」特別闡述自動化決策工具可能會出現的歧視行為及歧視樣態。此份指引的另一個意義在於,縱使目前紐澤西州並沒有一部監管AI的專法,但仍可以利用現行的法律去處理AI帶來的種種問題,以利在既有的法律架構內擴充法律的解釋來回應新科技的挑戰,並達到實質管制AI的效果。

英國運輸部向議會提交《2023年公共充電樁規則》草案,規範充電樁規格標準

英國運輸部(Department for Transport)2023年7月11日向議會提交《2023年公共充電樁規則(Public Charge Point Regulations 2023)》草案,希望改善電動車駕駛的充電體驗。草案是根據《2018自動與電動車法(Automated and Electric Vehicles Act 2018)》授權,規定一系列充電樁營運商必須遵守的充電樁規格標準,充電樁營運商若未遵守相關規定,最高可處以每座充電樁1萬英鎊之罰鍰: 一、定價及費用透明:充電樁營運商必須清楚標示每時段定價,以便士/瓩時(p/kWh)作為計價單位。每次充電後必須顯示充電總費用。 二、須提供24小時免費客服專線:充電點營運商須提供免費24小時專線,支援客戶服務。同時將客戶所提出的問題、解決方式和時間做成紀錄。 三、開放資料:充電樁營運商必須遵守開放式充電協議(Open Charging Point Interface, OCPI),建構開放式充電網絡,消除漫遊服務資料存取的障礙,免費公開充電樁位置、充電狀態、功率等充電樁相關資料。 四、感應式支付:所有新的8瓩以上公共充電樁,及現有快速公共充電樁必須提供消費者零接觸、無現金支付選項。 五、99%可靠性:所有快速公共充電樁,可靠性要求必須高達99%(即99% 的時間可以正常使用),並在網站公開充電樁可靠性資料。 六、充電漫遊支付服務(Payment roaming):充電樁營運商必須至少和一家第三方充電漫遊服務供應商(roaming provider)進行合作,使消費者可以透過漫遊服務,使用同一APP或具RFID感應功能的卡片,支付不同充電樁營運商的充電費用。

歐盟提出人工智慧法律框架草案

  歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。   新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。   未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。

TOP