美國司法部對標準制訂組織所採取之新政策出競爭法上之意見

  美國聯邦貿易委員會(Federal Trade Commission, FTC)於今(2006)年8月做出一項重要處分,認定Rambus Inc對其他標準制訂組織成員隱瞞其研發之多項電腦技術的專利,並打算在標準制訂組織採用特定標準後實施其專利的行為,乃以不法方式獨占市場之行為,違反反托拉斯法。

  在FTC作成Rambus 的決定後,標準制訂組織也開始嘗試一些防止Rambus案情形發生的事前因應之道,例如已推動電腦系統互連標準的電腦協會VITA,就採行了一項新的標準制訂政策,該協會要求其參與成員必須承諾,階段性釋出其專利及專利申請的資訊,包括其所設定的最高權利金費率與可能採取的最嚴格的限制性授權條件;另其標準制訂政策也禁止成員間就此等專利的權利金費率或授權條件私下協商。由於有認為這種作法可能會被認為是破壞市場競爭秩序的杯葛行為,故VITA乃向美國司法部反托拉斯局徵詢其意見。

  2006年10月30日,美國司法部反托拉斯局(Antitrust Division of the Department of Justice)提出一份商業檢視信函(business review letter, BRL),正式對此問題提出看法。司法部反托拉斯局在BRL中指出,基於以下幾點考量,VITA的標準制訂政策尚無限制競爭的疑慮:(1)共同制訂標準可能可帶來諸多有助於競爭的優點;(2)協會此項政策可使成員在推動制訂標準時,有更為充分的資訊作成決定;(3)專利授權條款的事前揭露可避免標準制訂可能因為事後過高的授權金,導致其導入或取代既有技術之時程被拖延。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國司法部對標準制訂組織所採取之新政策出競爭法上之意見, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=604&no=57&tp=1 (最後瀏覽日:2026/03/18)
引註此篇文章
你可能還會想看
美國商務部產業安全局公布「確保聯網車輛資通訊技術及服務供應鏈安全」法規預告

美國商務部產業安全局(Bureau of Industry and Security, BIS)於2024年9月23日公布「確保聯網車輛資通訊技術及服務供應鏈安全」(Securing the Information and Communications Technology and Services Supply Chain: Connected Vehicles)法規預告(Notice of Proposed Rulemaking, NPRM),旨在透過進口管制措施,保護美國聯網車供應鏈及使用安全,避免國家受到境外敵對勢力的威脅。 相較於BIS於2024年3月1日公告之法規制定預告(Advanced Notice of Proposed Rulemaking, ANPRM)意見徵詢中的討論,本次法規預告明確指出受進口管制的國家為中國及俄國,並將聯網車輛資通訊技術及服務之定義,限縮於車載資通訊系統、自動駕駛系統及衛星或蜂巢式通訊系統,排除資訊洩漏風險較小的車載操作系統、駕駛輔助系統及電池管理系統。法規預告中定義三種禁止交易型態:(1)禁止進口商將任何由中國或俄國擁有、控制或指揮的組織(下稱「中俄組織」)設計、開發、生產或供應(下稱「提供」)的車輛互聯系統(vehicle connectivity system, VCS)硬體進口至美國;(2)禁止聯網車製造商於美國進口或銷售含有中俄組織所提供的軟體之聯網整車;(3)禁止受中俄擁有、控制或指揮的製造商於美國銷售此類整車。 本次法規預告中亦提出兩種例外授權的制度:在特定條件下,例如年產量少於1000輛車、每年行駛公共道路少於30天等,廠商無須事前通知BIS,即可進行交易,然而須保存相關合規證明文件;不符前述一般授權資格者,可申請特殊授權,根據國安風險進行個案審查。其審查重點包含外國干預、資料洩漏、遠端控制潛力等風險。此外,為提升供應鏈透明度並檢查合規性,BIS預計要求VCS硬體進口商及聯網車製造商,每年針對涉及外國利益的交易,提交符合性聲明,並附軟硬體物料清單(Bill of Materials, BOM)證明。BIS針對此規範是否有效且必要進行意見徵詢,值得我國持續關注。

新加坡推《網路安全法案》:強化網路保護、賦權受害者、要求平台揭露加害者身分

面對網路騷擾、私密影像濫用及假訊息快速擴散等現象持續上升,新加坡政府於10月15日正式提出《網路安全(救濟與問責)法案》(Online Safety (Relief and Accountability) Bill,簡稱 OSRA),旨在提供受害者更迅速、更具效力的救濟手段,並強化平台與加害者的法律責任。該法案在16日完成國會一讀,預計於2026年上半年正式設立「網路安全委員會」(Online Safety Commission, OSC)。 政府指出,隨著民眾日常高度依賴網路,各類線上侵害行為不斷增加。根據政府的數位化調查,有84%的受訪者曾接觸有害內容,另有三分之一在過去一年曾遭遇實質的網路不法行為。其類型包括性與暴力內容、網路霸凌、種族與宗教衝突言論等。非營利組織SG Her Empowerment的研究更指出,多數受害者因平台處理無效、加害者匿名、外界輕忽其傷害而感到無助,甚至減少自身在網路上的公共參與。 OSRA的核心是建立網路安全委員會(Online Safety Commission, OSC),作為受害者的專責申訴與救濟窗口。受害者在多數案件中須先向平台申訴;若平台未能妥善處理,即可向OSC報告。但針對私密影像濫用、兒童影像濫用與人肉搜索(doxxing)等急迫性高的侵害,可直接向OSC求助。OSC在確認侵害後,將可發布多類命令,包括要求加害者停止傳播內容、限制其帳號,或命令平台移除貼文、封鎖群組、降低特定內容觸及率等。若平台拒不配合,OSC 還可指示ISP阻擋特定網站,或要求App Store下架相關應用程式。 依據法案與附件內容,新加坡將線上侵害行為分為13類,並分階段實施,包含: 1. 網路騷擾(含性騷擾) 2. 人肉搜索 3. 網路跟蹤 4. 私密影像濫用 5. 兒少影像濫用 6. 網路冒名 7. 不實或合成素材濫用 8. 煽動傷害 9. 煽動暴力 最嚴重且高發生率的前5類,包括預計2026年上半年優先落地,前9類行為將隨後實施,構成法定侵權行為(statutory torts),受害者可據此向法院請求損害賠償或禁制令。 因應匿名性造成追查困難,法案也賦予OSC要求平台提供加害者身分資訊的權限,即OSC得要求平台提供其所持有之、涉嫌造成線上危害之終端使用者身分資訊。受害者在OSC認定遭受侵害後,也可申請揭露資訊以利提起侵權訴訟,但揭露資料若被濫用將構成刑事犯罪。政府表示,OSRA的制定歷經多場閉門會議與公開諮詢並獲得廣泛支持,將補強現行刑事與行政法規,為受害者提供更完整的救濟體系。法案預計在下次國會會期進行二讀審議。

何謂芬蘭「SHOKs」?

  2006年芬蘭研究創新委員會在其創新政策倡議中指出,為結合產學研就重大發展領域進行長期合作,加速該國公私合作投入創新過程 Public-Private Partnerships (PPP),故以非營利性有限公司型態成立科學技術創新策略中心(Strategic Centres for Science, Technology and Innovation, SHOKs)。   SHOKs的計畫經費主要由芬蘭技術處(Tekes)提供補助,惟政府補助比例上限:最高上限75%,必要時Tekes可減少補助以符合上述比例。2008年到2014年用於補助研究計畫金額總和為5.45億歐元。   SHOKs科研計畫成果智財權歸屬及運用規定概述如下: 一、既有智慧財產權歸屬及運用: 1.參與者共同執行研究計畫不影響其既有智慧財產權之歸屬。 2.參與者之既有智慧財產權,若屬其他共同參與者執行計畫有必要者,應依無償或FRAND原則對其他共同執行研究計畫之參與者進行授權。 3.與執行計畫目的無關之既有智慧財產權使用,應另行協商授權事宜。 二、計畫成果智慧財產權歸屬: 1.歸屬於產出成果之一方,但如成果是多方參與者共同產出,原則上共有,但可另約定僅歸屬一方。 2.非SHOKs股東對研發成果產出有重大貢獻者,該研發成果亦可歸屬於該非SHOKs股東。 三、計畫成果智慧財產權之運用: 1.參與者為研究機構者,應向欲運用其研發成果之企業參與者進行移轉或授權時,收取相當於市場價格的補償金。 2.研究計畫參與者得無償取得相同及全球範圍之成果使用權,但除研究機構外不得再授權。

美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」

  美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。   為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。

TOP