芬蘭電子化政府服務採用行動數位簽章

       為了便利經常透過網際網路與政府打交道的民眾,芬蘭人口登記中心 (The Finnish Population Register Centre) 推出了一項創新的方式,也就是利用行動電話提供網路服務的安全憑證。而 Elisa 是首家與芬蘭人口登記中心合作並提供行動電話使用者身分認證這項服務的電話公司。


  由芬蘭第二大行動電話網路公司 Elisa 所推出的第一批載有行動簽章 (mobile signature) 所需之安全憑證的行動電話 SIM 卡正式問世,此種 SIM 卡是以國際高科技集團捷德公司 (Giesecke & Devrient, G&D) UniverSIM 產品為基礎所研發,卡片上載有一張類似我國自然人憑證的公民憑證 (citizen certificate) ,具有簽章功能與加密機制。此種技術屬於行動安全建置 (mobile security architecture) -也就是公開金鑰基礎建設 (PKI) -的一部份,能夠確保身分辨識所需具備的安全性與獨特性。


  想要利用這項透過行動電話之數位簽章享受政府服務的民眾 可以在當地警察局登記, 預計在 2005 年底前,芬蘭的 OKO 銀行、社會保險機構、稅務機關以及勞工局等都會利用這個新的行動公民憑證 (mobile citizen certificate) 來提供服務,這將會使芬蘭人民擁有一個全國性數位服務的電子身分證。此舉也使得芬蘭在行動通訊與電子化政府領域的領先地位更形穩固。

相關連結
※ 芬蘭電子化政府服務採用行動數位簽章, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=572&no=64&tp=1 (最後瀏覽日:2026/03/07)
引註此篇文章
你可能還會想看
美國修法通過,未來必要時可強制旅客接受AIT掃描

  近來美國運輸安全管理局(Transportation Security Administration, TSA)修訂隱私衝擊評估(Privacy Impact Assessment, PIA) 規章,規定機場安全檢查於必要時,可以針對某些特殊旅客強制進行AIT掃描。   美國運輸安全管理局根據航空運輸安全法(Aviation and Transportation Security Act, ATSA) 負責運輸之安全、評估威脅及強制執行安全相關的規定和要求,並且確保機場等交通設備是否有充足的安全措施。   由於國際恐怖攻擊行動頻傳,美國運輸安全管理局於2013年開始採行AIT掃描技術以強化旅客通關之安全檢查,並將會顯示出近乎裸照的3D透視影像全身掃描機器(body scanning machines)淘汰。   所謂的AIT(Advanced Imaging Technology)掃描技術,即係高階圖像技術,可偵測旅客是否有攜帶危險性、威脅性物品,它所顯示出來的影像僅係一個大致輪廓,如有違禁品則會在該部位產生色塊,警告安檢人員應採行進一步檢查措施。   一般而言,雖然旅客可拒絕AIT掃描,選擇讓海關人員進行身體檢查,但是為確保運輸安全,近來運輸安全管理局更新隱私衝擊評估(Privacy Impact Assessment, PIA) 規章,規定於必要時可以針對某些特殊旅客強制進行AIT掃描,旅客不再有拒絕之權利。   此一政策施行,勢必遭受侵害「隱私權」之質疑,運輸安全局表示,AIT掃描係採用「自動目標辨識」 (Automatic Target Recognition , ATR) 軟體,亦即非直接顯示個人影像,僅顯示特殊物體在一般影像上的所在位置,發出警訊後再由安檢人員進行詳細檢查。現今AIT掃描技術已提升,掃描出的人體圖像會被模糊處理,且掃描後機器不會儲存任何可識別個人之資訊,更加確保旅客的隱私權不受侵害。

加拿大提供App開發供應商指導方針解決因隱私保護所引發之問題。

  App已成為多數人每日不可或缺之夥伴,其應用層面廣及食、衣、住、行、育、樂等生活領域;不過用戶可能多未意識到,在App程式的下載及安裝過程中,開發供應商會記錄或接觸使用者手機中如電話簿、照片、影音檔案、簡訊、密碼記錄等其他資訊之可能。根據華爾街日報報導,56%的應用程式在用戶不知情的情況下,手機ID會發送給廠商;47%的應用程式會透露用戶的所處位置,使得個人隱私蕩然無存。   加拿大當地的隱私法規要求企業在追求創新及企業精神時必須將隱私保護納入考量;而在行動裝置應用環境中,無論是開發商、服務供應商、應用平台或是廣告商,只要有接觸用戶個人資訊之可能,就有遵守法規之義務。但考量App這樣一個嶄新又快速發展的科技生態,在實踐隱私保護精神之初可能會面臨到新的衝擊與挑戰。因此,加拿大隱私權主管機關(Office of the Privacy Commissioner of Canada,簡稱OPC)乃會同加拿大境內的阿爾伯特及不列顛哥倫比亞兩省各自之地方主管機關(其分別為Office of the Information & Privacy Commissioner of Alberta及Office of the Information & Privacy Commissioner for British Columbia)撰寫指導文件,希望能提供當地App開發供應商建議方案。   該項建議方案促使行動軟體開發供應商在設計與開發App應用程式時必須顧及使用者隱私之保護,並提供協助方式與預防原則,提高使用者隱私受保護之程度;除必須使用清晰且易懂之方式告知用戶的個人資料將進行何種用途外,在使用者下載前亦應告知被蒐集之資料類別及原因、資料儲存位置或地點、資料分享之可能及其原因、資料保存之期限、及其他可能影響用戶隱私之事件;倘若廠商必須變更隱私政策與規定,則應使用明確易懂之方式事先通知所有使用者了解進行何項變更,以強化用戶隱私與個人資料保護意識。

美國司法部與聯邦貿易委員會聯合發布新「垂直合併指引」

  美國司法部 (Department of Justice, DOJ)與聯邦貿易委員會(The Federal Trade Commission, FTC)於2020年6月30日發布新的「垂直合併指引(Vertical Merger Guidelines)」,其為美國司法部與聯邦貿易委員會首次針對垂直合併所發布之共同指引,且為自司法部1984年「非水平合併指引(Non-Horizontal Merger Guidelines)」頒布以來,首次針對垂直合併之重大修正,內容旨在概述聯邦反托拉斯主管機關如何評估垂直合併之競爭效應、以及該等合併是否符合美國反托拉斯法。   本指引所適用之合併態樣包括嚴格垂直合併(於相同供應鏈之不同階段的公司或資產之合併)、斜向合併(diagonal mergers)(於競爭供應鏈之間之不同階段的公司或資產之合併)、以及於互補合併(mergers of complements)時所會產生之垂直議題。其描述主管機關用於判斷垂直合併之反競爭與促進競爭效果之分析架構。   於反競爭效果分析之單方效果方面,其提出可能之類型包括封鎖與提高競爭對手成本(Foreclosure and Raising Rivals’ Costs)、影響競爭之敏感資訊的近用(Access to Competitively Sensitive Information);於反競爭效果分析之共同效果方面,其指出垂直合併可能會透過鼓勵合併後相關市場中各公司間之協調互動(coordinated interaction)來減少競爭並傷害消費者。   於促進競爭效果分析方面,其著重於針對消除雙重邊際化(elimination of double marginalization, EDM)之分析,因垂直合併通常透過EDM使消費者受益,而傾向於可減少對競爭造成損害之風險。主管機關可以獨立依一切可得之證據來量化EDM之效果,其通常會檢驗被併購後可自給自足之效果,相較於若未被併購時需從獨立供應商購買之情況下所可能節省之成本,作為對於EDM效果之驗證。   藉由此指引之發布,可為主管機關對於垂直合併之評估與分析方式提供了透明度,而有助於為企業界、律師界、與執法者提供更多之可預測性。

因應使用「生成式AI(Generative AI)」工具的營業秘密管理強化建議

2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

TOP