中國通過網路安全法

  中國人大常委會於11月7日通過了備受爭議的網路安全法(以下簡稱本法),將於2017年6月1日開始施行。本法分為7章,共計79條。

  本法立法目的係為了保障網路安全,維護網路空間主權和國家安全、社會公共利益,保護公民、法人和其他組織的合法權益,促進經濟社會資訊化健康發展(第1條)。本條賦予了管理部門極大的管理權能,引發了「中國將建立國家互聯網」的聯想。本法適用範圍包括在中華人民共和國境內建設、運營、維護和使用網路,以及網路安全的監督管理(第2條)。本法相關重點,摘要如次:

一、本法第21條將「網路實名制」明文化。規定網路營運者在為用戶辦理上網、電話等入網手續,或為用戶提供信息發布、即時通訊等服務,在與用戶簽訂契約時,應當要求用戶提供真實身份資訊。若用戶不提供真實身份資訊,網路營運者不得為其提供相關服務。

二、本法強化對個人資料之規範,例如:規定個人資料不得出售(第44條)。

三、嚴厲禁止任何網路詐騙行為(第46、67條)。

四、重大突發社會安全事件可在特定區域採取「網路通信限制」等臨時措施(第58條)。

五、境外的機構、組織、個人從事攻擊、侵入、干擾、破壞等危害中國的關鍵資訊基礎設施的活動,造成嚴重後果者,將依法追究法律責任;國務院公安部門和有關部門並可以決定對該機構、組織、個人採取凍結財產或者其他必要的制裁措施。(第75條)

相關連結
你可能會想參加
※ 中國通過網路安全法, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7638&no=55&tp=1 (最後瀏覽日:2026/03/29)
引註此篇文章
你可能還會想看
經濟部技術處研究機構智慧財產管理制度評鑑與台灣智慧財產管理規範(TIPS)驗證內容比較

從推動體系及法制架構思考我國文化創意產業發展之整合以南韓推動組織與法制架構為例

世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書

  世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。   包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。   在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。   綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。

以Apple Pay服務捲入營業秘密糾紛案為例,提醒企業合作應留意的機密管控作法

2025年8月6日,行動支付技術開發公司Fintiv向喬治亞州北區聯邦地方法院亞特蘭大分院控訴Apple科技公司以詐欺手段竊取Fintiv公司的前身公司CorFire的專屬行動支付技術,違反《保護營業秘密法》(Defend Trade Secrets Act,DTSA)及《喬治亞州營業秘密法》(Georgia Trade Secrets Act,GTSA)等規定,向法院尋求賠償。 Fintiv公司主張Apple公司在2011年至2012年間,以行動支付技術之業務合作為由,與CorFire公司進行多次技術性洽談。Apple公司利用雙方簽訂之保密契約,取得CorFire公司的行動支付技術的詳細實施方案之接觸權限,並要求CorFire公司上傳部分機密資料至Apple公司管理的共享平臺,以促進合作交流關係,最終Apple公司放棄與CorFire公司的合作計畫,Apple公司卻將協商期間所獲技術內容整合,並應用於其在2014年推出的Apple Pay行動支付服務。Fintiv公司進一步主張Apple公司為將Apple Pay商業化,與信用卡處理商及銀行組成企業聯盟,並隱瞞其非法取得技術的真相,宣稱Apple公司自主研發Apple Pay。Fintiv公司指出,Apple公司此舉不僅損害Fintiv公司的合法權益,也嚴重破壞市場競爭秩序。此外,Fintiv公司表示,Apple公司多年來有系統地採取類似策略,如以合作名義獲取其他企業之機密,進而不當使用多項機密以進行商業化使用。 觀察前述實務案例可得知,即使雙方基於保密契約交換機密資料,仍存在終止合作衍生的機密外洩糾紛,如:機密資料歸屬不清、逾越授權範圍使用機密資料等風險。建議企業在「資料提供前」,應先透過「盤點」營業秘密與機密「分級」,確認合適揭露的機密資料,再藉由「審查」機制確認必要揭露的內容;在「資料提供後」,要求他方提供機密資料之「收受證明」以明確歸屬,並在合作關係結束後,要求他方「聲明返還或銷毀機密資料」,以降低他方不當使用機密資料的風險。 前述建議之管理作法已為資策會科法所創意智財中心於2023年發布之「營業秘密保護管理規範」所涵蓋,企業如欲精進系統化的營業秘密管理作法,可以參考此規範。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

TOP