美國《保護美國人免受外國對手應用程式侵害法案》生效,延長受規範主體出售持股之期限

早在今年(2024年) 3月13日,美國眾議院曾正式表決通過《保護美國人免受外國對手應用程式侵害法案》(Protecting Americans from Foreign Adversary Controlled Applications Act),所有由「外國敵對勢力控制的應用程式」若對國內造成國安威脅,則必須在法案生效後的6個月內拆分在美國之業務及出售持股,且收購公司或新成立公司的營運必須完全獨立自主,不得與原事業有任何往來或合作關係,包括演算法或資料分享等。而相關收購案也須經過主管機關審查,確認其出售之後已完全脫離外國敵對勢力的控制,直到分拆業務為止,美國的虛擬主機服務提供者,始得為其架設網站;若超過期限而未出售,其將從應用程式商店和基於網路的託管服務中被關閉,永久被排除在美國的Google Play、Apple App Store等軟體商店之外。

攤開美國商務部所列的外國敵對勢力清單,中國大陸和香港、古巴、伊朗、北韓、俄國都在名單之列。然而,擁有1.7億美國使用者的短影音平臺TikTok在美國極為盛行,且盛傳TikTok似將所蒐集的美國使用者個人資料提供中國大陸北京政府,因而成為該法案首當其衝的頭號目標。故法案當中即點名TikTok,甚至強調其母公司字節跳動(ByteDance)未來推出的應用程式亦在禁止之列,故該法案又俗稱TikTok禁令。

於審議2024年度的國安補充撥款法案時遂提出將援外法案裂解成獨立法案的發想,而TikToK禁令則屬其他國安需求之類別而包裹在另外一個法案中進行單獨的審議及表決,為兩黨創造更多妥協空間,以便在個別議題上尋求最大公約數。4月20日下午,眾議院以360票贊成58票反對通過《透過力量實現21世紀和平法案》(21st Century Peace through Strength Act),爾後以四案合一的包裹方式送交參議院審議表決,於當地時間23日晚間美國參議院通過該單一修正案,24日再經美國總統拜登(Joe Biden)簽署後正式生效。該HR8038法案包含對以色列、烏克蘭、印太區域安全的3項援助法案,至於強制TikTok脫離中國大陸母公司字節跳動的措施則位在法案的D章節,此部分名為「保護美國人免受外國對手控制應用程式侵害」,實質上乃與眾議院上月通過的法案類同,僅在出售期限上與眾議院上月通過的版本不同,其理由在強調該法案首在以「撤資」為核心,故從原先6個月之限期展延至1年,而此1年期限包含法案生效後270天內讓受規範者脫售持有股份,如於出售期限屆期之際,倘在任何收購階段已取得進展或近乎完成撤資之目標,總統基於職權可額外授權給予90天寛限期以便完成交易程序。從而當前受第一波影響的TikTok得暫時在美國市場續命,惟若終局倘未能出售其在美資產及持股而達完全剝離母公司控制之進程,仍舊得面臨業務全面下架並禁止在美國境內運營的結果。

從HR8038法案的通過可透析兩個重要資訊:

1.為美方體認到社群媒體強大的認知影響力:此前有關數位平臺演算法如何推薦特定內容的曝光不易由法律監管,任何措施皆須在美國憲法第一修正案的框架下進行,避免任何人對言論自由和獲取資訊施加限制,因而法案改以不公平競爭之角度為外衣,迫使敵國之外國企業出售技術和資產,防免其透過不透明的演算法操縱美國人民的行為判斷。

2.從法案的性質上綱到國家安全層次觀察:可探知該法案為美中在科技領域角力下之產物,阻止中國大陸將數據資料武器化,由於中國從2017年起,陸續通過《國家情報法》、《網絡安全法》和《數據安全法》等國安法規,明文規定如為維護國家安全或調查犯罪,有關單位可以調取數據,而握有數據的私人企業或個人只能依法配合,同時中國大陸北京政府也大力整頓網路科技業者,目的之一就是提高國家對企業蒐集資料的控制,產生干預美國內政之風險。

惟TikToK借鑒在蒙大拿州之經驗,表示將同樣基於違反美國憲法第一修正案所保障之言論自由採取法律行動,擬透過司法救濟途徑爭取其在市場上繼續運營的空間。若期間法院未作成任何決定,自法案生效日(2024年4月24日)起算270天,正值落在下一任總統就職前一天,即2025年1月19日之前,字節跳動公司必須出售TikTok在美之業務及資產,屆期未出售則將從Apple App Store或Google Play等應用程式商店全面下架TikTok及其更新版,否則應用程式商店將面臨依使用者數量計算的等比例罰款,另外其他網路服務供應商也將封鎖TikTok進行網路存取。

相關連結
你可能會想參加
※ 美國《保護美國人免受外國對手應用程式侵害法案》生效,延長受規範主體出售持股之期限, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9203&no=67&tp=1 (最後瀏覽日:2026/02/01)
引註此篇文章
你可能還會想看
開放原始碼撤出蘋果Safari?

  兩年前蘋果選擇開放原始碼成像引擎( rendering engine ) KHTML 做為 Safari 瀏覽器的基礎;兩年後,蘋果則打算以自己的程式碼取代該引擎,藉以解決相容性的問題。 KHTML 成像引擎──也是其瀏覽器的核心,考慮在其架構上放棄 KHTML 的程式庫( code base ),或者所謂的「樹狀圖」( tree ),改用蘋果自己的版本,也就是所謂的 WebCore (網頁核心)。 KHTML 原本是為了要在 KDE ( K Desktop Environment )上執行而撰寫的──這是 Linux 和 Unix 作業系統的介面。   Safari 並不是蘋果唯一以開放原始碼為基礎的軟體,其麥金塔( Macintosh )作業系統就是以達爾文( Darwin )開放原始碼計畫為基礎。   企業在某些方面受到限制,而開放原始碼社群以不受限制為傲。蘋果自己內部有些問題搞不定,以致銜接不上 KDE 開發 KHTML 的模式,導致 KHTML 與 Safari 逐漸產生分歧,後來情況則越來越嚴重。

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

日本2021年修正《個人資料保護法》,整合個資法體系

  日本於2021年5月19日公布新修正之《個人資料保護法》(個人情報の保護に関する法律),並預計於2022年4月正式施行。修法重點如下: 一、法律形式及法律管轄一元化:現行日本個人資料保護法制依適用對象分為《個人資料保護法》、《行政機關個人資料保護法》(法律行政機関の保有する個人情報の保護に関する法律)、《獨立行政法人等個人資料保護法》(独立行政法人等の保有する個人情報の保護に関する法律)及各地方政府個人資料保護條例等不同規範,修法後將統一適用《個人資料保護法》,並受到個人資料保護委員會之監督管理。 二、整合醫療及學術領域之規範:目前醫療及學術機構因隸屬於公部門或私部門適用不同規範,修法後無論公私立醫院、大學等原則上均適用相同規範。 三、調整學術研究之豁免規定:基於學術研究自由為憲法保障之基本權,現行《個人資料保護法》明文規定學術研究一律排除適用本法規定,惟2019年日本取得《歐盟一般資料保護規則》(GDPR)適足性認定之範圍未包含學術研究,故修法調整豁免規定為例外情形排除適用,如變更利用目的、取得敏感性個人資料及提供予第三者之情形。 四、整合個人資料及匿名化資料之定義:修法將公部門與私部門對個人資料之定義,整合為包含「易於」與其他資料比對後得以識別特定個人之要件。而《行政機關個人資料保護法》所稱「去識別化資料」(非識別加工情報),與《個人資料保護法》所稱「匿名化資料」(匿名加工情報),修法後將統一稱為「匿名化資料」。   為銜接上述修法內容,日本個人資料保護委員會自2021年8月起陸續針對《個人資料保護法施行令》、《個人資料保護法施行規則》及個人資料保護法相關指引公開徵求意見,後續值得持續觀察日本個人資料保護法制發展。

盜用無線網路溢波有罪乎?

TOP