英國身份證立法-我國之借鏡?

刊登期別
2005年11月
 

※ 英國身份證立法-我國之借鏡?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=789&no=64&tp=1 (最後瀏覽日:2025/12/17)
引註此篇文章
你可能還會想看
德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求

  德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。   諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。   綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。

因應綠色採購 環保標章實驗室認證問題有待解決

  近年來,國際企業強調「綠色商機」,綠色競爭力更成為台灣企業進軍國際市場的指標之一。政府配合綠色風潮,鼓勵國內綠色生產及綠色消費,在政府採購法增列綠色採購條款,並通過「機關優先採購環境保護產品辦法」。然而這些美意,卻可能因為環保標章實驗室認證問題,大打折扣。   造成上述結果的主要原因是,我國因相關環保法令不周全,環保管理、監督單位權責不一,形成三不管局面,影響廠商競爭力。舉例而言,現在環保署嚴格把關環保標章實驗室,檢查近 20 家實驗室,最後只認定三家有合格檢測能力,廠商要取得環保標章,一定要找這三家業者,形成供需嚴重失衡局面,廠商耗時、浪費金錢,還是拿不到環保標章。   另外,環保標章實驗室的管理單位,應該是環保署還是經濟部標準檢驗局;發生爭議事件,環保署和標準局各有說詞。環保標章是環保署核發,但實驗室檢測、管理則由標檢局負責,故而出現三不管的局面。   今年 7 月 1 日 ,歐盟全面執行 RoHS (無鉛製程)環保措施,明年,歐盟開始執行 WEEE (廢棄電機電子產品回收)環保措施,由於台灣資訊大廠 98% 為出口導向,這兩個規定使我國資訊廠商不得不審慎因應之,然而, RoHS 及 WEEE 僅是一個開端,未來歐盟一旦通過 REACH 規則,因環保要求而受影響的產業將更多,可見環保標章實驗室認證問題,必須嚴格看待並儘速解決。

何謂德國「EXIST補助計畫」?

  德國在2000年以後便將聯邦政府補助的其中一個方向集中在鼓勵科技創業,主要推動機關為聯邦教育暨研究部(Bundesministerium für Bildung und Forschung, BMBF)與聯邦經濟暨能源部(Bundesministerium für Wirtschaft und Energie, BMWi)。其中BMWi的EXIST計畫訴求建立一個科技創業有善的環境,並分三項子計畫運作:EXIST創業文化計畫(EXIST-Gründungskultur),EXIST創業補助計畫(EXIST-Gründerstipendium),EXIST研發成果移轉計畫(EXIST-Forschungstransfer)。   其中,EXIST創業文化計畫著重於在學研機構內塑造創業文化,誘發學研機構創業潛力與企業家性格;EXIST創業計畫則是鎖定學研機構內的個人(科學家、研究生、大學生),希望透過對這些個人的生活補助,使其商業發想可化為營運計畫書(Businessplan),進而開發成為商品或服務;EXIST研發成果計畫則是透過經費補助,鼓勵學研機構內的研究團隊利用設立衍生公司方式運用研發成果,在創業前的籌備階段與公司設立初期導入專業團隊,協助評估相關的創業理念、經營模式、財務評估與資金運用等規劃是否妥適,使公司創立的籌備更為妥善且禁得起市場考驗。

美國科羅拉多州通過《人工智慧消費者保護法》

2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。

TOP