美國證券交易委員會針對上市公司提出網路安全風險管理、治理及網路安全風險事件揭露規則

  美國證券交易委員會(United States Securities and Exchange Commission, SEC)於2022年3月9日提出關於上市公司網路安全風險管理、治理及相關事件揭露規則,希望加強上市公司的網路安全風險管理以及網路安全事件之揭露監管,其提案核心內容有二,第一係要求國內上市公司於確定發生重大網路安全事件後四個工作日內,揭露有關資訊,且揭露內容必須包含以下五大項,(1)事件何時發現、目前是否持續中、(2)事件性質與其範圍簡要說明、(3)是否有任何資料被洩漏、竄改或被不當使用、(4)該事件對於公司之營運影響、(5)公司是否已著手進行補救及處理。

  該提案的第二個核心內容係定期報告公司的網路安全風險管理及治理資訊,例如公司是否具有網路安全風險評估計畫,其內容為何、公司是否有政策及程序監督第三方服務提供商之網路安全風險、當公司發生網路安全事件時,是否具備應變程序及網路攻擊復原計畫、網路安全相關風險對於營運結果及財務狀況將可能產生何種影響等等。

  該提案的公眾諮詢期間為提案發布後60天,鑒於網路安全風險增加,美國證券交易委員會期望藉由此提案,更明確的告知投資者上市公司的網路安全風險管理及治理相關資訊、並且可以即時通知投資者重大網路安全事件,給予上市公司投資者及其他資本市場參與者更周延之保障。

相關連結
你可能會想參加
※ 美國證券交易委員會針對上市公司提出網路安全風險管理、治理及網路安全風險事件揭露規則, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8805&no=64&tp=1 (最後瀏覽日:2026/01/17)
引註此篇文章
你可能還會想看
歐盟法院佐審官允許Google販售商標關鍵字給廣告業者

  針對法國知名品牌LVMH控告搜尋引擎大廠Google以其商標作為關鍵字,販售給網路廣告業者,使得當使用者鍵入商標關鍵字搜尋時,廣告業者之商業訊息及其網址會呈現在搜尋結果中,而侵害LVMH商標權的訴訟案中,歐洲法院佐審官(advocate General)Poiares Maduro提出了法律意見書。   在該意見書中,其認為Google允許廣告業者選擇和商標有關的關鍵字並不構成商標侵權,選擇關鍵字僅是Google和廣告業者二造間的內部活動,並沒有對公眾販賣和商標相同或類似的產品或服務,非商標法所謂之使用。另外,根據關鍵字搜尋結果而呈現廣告業者之網址,也不會造成消費者對原始產品或服務混淆的風險。網際網路的使用者知道在Google搜尋引擎做搜尋時,並非只有商標擁有者的網址會呈現,甚至有時他們並不是尋找商標擁有者的網址。消費者會依據廣告內容及造訪廣告網址來認定產品或服務的來源,不是僅依據隨商標關鍵字而呈現出的廣告就作出來源的認定。   該佐審官的法律意見雖然對歐盟法院沒有拘束力,但該法院在大部分的案件中仍會依循該意見,通常在該意見提出後大約六個月會作出裁判。

Rambus再興訟 南亞科、華亞挨告

  美國記憶體設計司Rambus1月25日向美國北加州地方法院提出侵權告訴,指控Hynix、南亞科技、華亞科技、英飛凌等四家DRAM廠,涉嫌侵犯Rambus的DDR2記憶體、GDDR2及GDDR3繪圖卡用記憶體等共18項專利。南亞科副總經理白培霖表示,還不了解Rambus實際的指控內容,一切仍在了解中。   Rambus三年前推出RDRAM並獲得英特爾支持成為次世代主流產品,但因當時DRAM廠基於成本考量,決定支持DDR規格,所以Rambus後來不得不被迫退出標準型DRAM市場。然因Rambus擁有多項記憶體專利,目前主要產品獲得新力PS遊戲機採用,所以大部份營收來源均來自於權利金收入,去年Rambus營收約1億4500萬美元,其中的1億2000萬美元就是權利金收入。   由於Rambus前年就宣佈研發出DDR2產品,隨著今年英特爾力推新款支援DDR2晶片組,全球DRAM廠均投入DDR2生產,因此Rambus再度興訟,控告Hynix、南亞科技、華亞科技、英飛凌等四家DRAM廠,侵犯其 DDR2及GDDR2、GDDR3等記憶體共18項專利。   對於被Rambus控告一事,南亞科技及華亞科技提出說明。白培霖說,南亞科及Rambus一直就二家製程技術洽談相互授權事宜,內容包括DDR2及繪圖卡用記憶體GDDR3等,但目前為止雙方還沒有達成相互授權協議,自然也沒有權利金支付問題,由於南亞科目前還沒收到起訴書,不知道Rambus提出的控訴內容為何,因此一切有待再進一步了解後再行說明。除了此次的Rambus控告南亞科侵權,去年日本半導體大廠瑞薩科技(Renesas)也三度對南亞科技提出侵權控告,瑞薩除了指出南亞科技侵犯其記憶體製程、設計、封裝等專利權外,去年十月底還向東京地方法院提出申請,將對南亞科技日本子公司進口、銷售DRAM行為進行假處份(Preliminary Injunction)。   對於國際大廠不斷針對南亞科提出侵權告訴,南亞科技表示,與瑞薩在日本、美國的專利權官司,至今還在上訴審理階段,南亞科已經提出資料證明,至於Rambus此次提出的侵權告訴,現在還在了解中,但南亞科的立場,會尊重每家半導體廠的專利權,不會有任何侵權的行為。

日本公布「特定數位平臺之透明性及公正性提升法」之透明性及公正性評鑑指標

日本經濟產業省(METI)於2022年12月22日於官網公布「特定數位平臺之透明性及公正性評鑑」報告(特定デジタルプラットフォームの透明性及び公正性についての評価),首次針對擁有數位平臺的大型IT(Information Technology)企業完成交易機制透明性及公正性評鑑,並要求被評鑑之企業進行改善。 該評鑑依據「特定數位平臺之透明性及公正性提升法」 (特定デジタルプラットフォームの透明性及び公正性の向上に関する法律,以下稱「透明化法」),透明化法於2020年5月通過並已在2021年2月施行。其目的是為了提高交易之透明性以及公正性,具體指定「特定數位平臺」之企業,並列為評鑑對象,課予其有揭露或公開特定訊息,與進行改善的義務。 本次的評鑑內容,是依該法第4條第1項、第8條以及第9條第2項所定,交易條件之資訊揭露義務為基礎,由日本經濟產業大臣指定數位平臺企業(提供者の指定),進行個案評鑑(評価)並要求其改善(勧告)。依據個案評鑑之內容,日本針對數位平臺之透明度及公正性之判斷,歸納出下列具有共通性之指標: 1.企業有揭露交易條件之義務 2.企業有完善交易機制之義務 3.企業有積極處理用戶申訴與糾紛之義務 4.針對應用程式商店(アプリストア),課徵手續費(手数料)與會員付款結帳(課金)方式之限制,企業有詳細說明之義務 5.企業本身或關係企業與平臺其他用戶之間須公平競爭,例如:企業與直營或非直營商店之間,具有利害關係或有優待行為時,企業須公開其管理方針,並列入內部稽核事項,使其能檢視差別對待之正當性。 6.停用帳戶或刪除之手續,企業在30天之前,就該處置之內容和理由,對消費者有通知之義務。 7.退款或退貨之流程,企業有積極和具體說明之義務,且須將處置成果公開。 關於評鑑對象之指定,是依同法第4條第1項所授權,由日本經濟產業省進一步於2021年2月1日頒布政令,以事業種類與規模進行區分。此外,被列為評鑑對象之企業必須在每年5月底前,各自將企業內部的因應措施,提交總結報告,並由經濟產業大臣進行審閱。值得注意的是,依評鑑結果所要求的改善措施,原則上以企業自主改善為要旨,但日本政府目前正商討今後是否需要以強制力介入;對於被列為評鑑企業之後續改善措施及透明化法之推動方向,值得作為我國數位平臺治理政策之借鏡與觀察。

南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引

南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。

TOP