美國總統歐巴馬簽署通過網路安全資訊分享法案(CISA)

  網路安全資訊分享法案(Cybersecurity Information Sharing Act,CISA)於2015年10月27日在「參議院」通過。接著眾議院於12月18日通過1.15兆美元的綜合預算法案,並將網路安全資訊分享法案夾帶在預算案中一併通過,最後美國總統歐巴馬亦在同日簽署通過使該法案生效,讓極具爭議的網路安全資訊分享法案偷渡成功。

  網路安全資訊分享法案,建立了一個自願性的網路資訊安全分享之框架,其主要內容,在讓美國民間企業遭受網路攻擊或有相關跡象時,得以分享客戶個人資訊予其他公司或美國國土安全局等相關部門,同時並讓民間企業免除向公務機關洩漏客戶個資隱私等相關之法律責任。該法案目的係期盼藉由提高網路攻擊訊息共享度來改善網路安全問題。

  該法案通過引發各界譁然。修正後的網路安全資訊分享法案去掉多數保護隱私權之條款,諸如分享客戶資訊時不用再遮掉無關的個人資訊、不再禁止政府利用這些個人資訊進行監控。

  美國媒體批評該法案的通過是政府最可恥荒謬的行為之一。就隱私權層面,批評者認為,該網路安全資訊分享法案仍與監控密切結合,未能解決客戶個人資料被大量外洩的風險。就程序面而言,一個正式的網路安全資訊分享法案似乎不應被包裹在大額綜合預算法案中通過。該法案通過後之執行情形值得繼續觀察。

相關連結
※ 美國總統歐巴馬簽署通過網路安全資訊分享法案(CISA), 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7164&no=67&tp=1 (最後瀏覽日:2026/02/07)
引註此篇文章
你可能還會想看
美國營業秘密之獨立經濟價值的認定趨勢變化

2023年6月來自美國法院的兩份營業秘密意見,強調了獨立經濟價值的重要性,並打破過往學者認為該要件沒有判斷實益的擔憂。所謂的獨立經濟價值,是指任何資訊若要成為營業秘密,所需具備源自其保密狀態的經濟價值。由於兩份意見都不允許原告透過薄弱之推論與假設,來證明其營業秘密具有獨立之經濟價值,顯示出法院對獨立經濟價值之認定趨勢的變化。 其中一份意見來自美國第四巡迴上訴法院,該法院認為原告未能提供充分的證據證明其營業秘密之價值,並駁回原告以該公司被收購之價格或授權其專有資料庫VulnDB所得收入,作為其75項涉案營業秘密經濟價值的論點。美國第四巡迴上訴法院強調,原告不僅需證明所主張之營業秘密具有經濟價值,尚需證明該經濟價值源自所主張之營業秘密的保密狀態。 另一份意見來自美國俄亥俄州北區地方法院,該法院駁回了原告透過其執行長的宣誓書來證明所主張之營業秘密具有獨立經濟價值的作法。儘管該宣誓書討論了法院經常認定為營業秘密的資訊,比如交易的形式、未經審計的財務報表等,但美國俄亥俄州北區地方法院仍拒絕主觀證詞,要求原告提供所主張之營業秘密具有獨立經濟價值的客觀指標或理由。 企業該如何證明其營業秘密具有獨立之經濟價值? 企業可透過下列方式來證明其營業秘密具有獨立之經濟價值,包括: 1.開發成本:開發營業秘密的時間與材料成本,但過去的研發成本未必等於現在的經濟價值; 2.授權、租賃費:他人付費使用其營業秘密的事實; 3.內部通訊紀錄:他人承認該營業秘密所帶來的好處或前僱員、承包商與其競爭對手分享營業秘密的事實; 4.展現出優勢:透過營業秘密資訊獲得一份有價值的合約或滿足某些標準、條件之要求; 5.降低成本/提高效率:透過營業秘密減少原物料之投入及所需時間或提高生產之效率。 隨著美國法院對獨立經濟價值之認定趨勢的變化,營業秘密案件之原告所負的舉證責任將逐漸提高。據此,當企業欲提出不當使用營業秘密之損害賠償時,應盡早開始收集相關證據,以滿足法院對於營業秘密之獨立經濟價值的認定標準。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。

歐盟智慧聯網研發推動平台報告,物聯網共創價值的六大支柱

  成功的物聯網(IOT)平台生態系統取決於多種因素,2017年4月3日歐盟智慧聯網研發推動平台( European Research Cluster on the Internet of Things)在物聯網活動平台分析(Analysis on IoT Platforms Adoption Activities)中提出六個成功的重要因素: 策略與利害關係人的參與(Strategy & Stakeholder Engagement):成功物聯網平台除了要製定良好的願景外,並讓主要利害關係人適當的參與系統策略,與整體政策格局保持一致性。 社群的支持(Community Support):社群支持程度決定了物聯網系統的吸引力,透過適當的的機制和工具,以有效地減少參與的障礙。 開放性(Ecosystem Openness):非常封閉的物聯網系統,吸引較少參與者。透過適當的開放以鼓勵利害關係人之參與,並減少進入之障礙。 技術的進步程度(Technology Advancement):越是被廣泛使用的技術及技術特徵,越可以顯著增加物聯網系統的吸引力,除了提高績效以外,並增加系統存續之可能性。 市場機制(Marketplace Mechanisms):透過市場機制可以取得用戶間的信任感,以增加參與的可能性,透過參與者價值交流進一步鼓勵參與。 包容性(Technology Inclusivity):物聯網系統很少是孤立的,必須考慮許多外部因素,如架構技術、物聯網設備、服務等。物聯網生態系統越包容其他流行技術,越有可能被使用者接受。

三菱電機子公司三菱電機informationsystems公司所研發的圖書館系統發生個資外洩事件

  三菱電機informationsystems公司所研發用於圖書館的系統封包MELIL/CS造成引進系統的圖書館發生個人資訊外洩與Web館藏檢索系統當機的系統障礙。從2010年7月到9月因系統障礙,總共有3間圖書館,共2971人的姓名、出生日期、住址、電話及圖書名稱等個人資料外洩。   有關個人資料外洩的經過,是因為三菱電機informationsystems公司在研發MELIL/CS系統時,先在引進系統的圖書館進行系統測試,於測試之後再將系統程式帶回公司修改,此時就不知情的將存有個人資料的程式帶回公司,也把這些資料登錄到產品的原始碼上。因此將進行測試的2間圖書館使用人約210人的個人資料登錄於該產品的原始碼上。 但發生個資外洩的直接原因更在於負責三菱電機informationsystems公司產品運作、維修的銷售伙伴千代田興產公司,該公司所設置的伺服器完全沒有設定權限區分,甚至不需密碼就可以連接該公司伺服器存取資料。因此發生第三人進入該公司伺服器,下載3個引進該系統圖書館約3000人的個人資料。   另外對於Web館藏檢索系統當機的發生,是因為圖書館使用人為了獲取圖書館新增加館藏圖書的資訊,以自動蒐集資訊程式直接存取館藏資料庫所發生。三菱電機informationsystems公司當初在設定網路連接圖書館系統,是以一次存取可以連接10分鐘的方式,所以只要以連接頻率高的機械性存取,只要超過資料庫的同時連接數的設定數值,就會發生存取障礙。   對於三菱電機informationsystems公司系統設計失當及千代田興產公司未設定伺服器存取權限所造成個人資料外洩事件,因為這兩家公司都是屬於財團法人日本情報處理開發協會(JIPDEC)的取得隱私標章企業,所以由JIPDEC依據隱私標章營運要領中的「有關賦予隱私標章規約」第14條規定,各處以由2011年1月起3個月的隱私標章停權處分。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

TOP