中華人民共和國發布「電子認證服務管理辦法」

     中華人民共和國於今年(2005)218頒布「電子認證服務管理辦法」,該辦法乃是繼20048月頒布「中華人民共和國電子簽名法」後,針對電子認證服務產業所為之規範,目的在於使主管機關(中華人民共和國資訊產業部)對於憑證機構與電子認證服務之實施得有一明確之監督管理辦法(4),將於今年(2005)41正式施行。該辦法對於憑證機構之核可、電子認證服務之提供、暫停與終止、憑證應記載事項、憑證機構之審查義務、主管機關之監督管理辦法,以及相關罰責均予以明定。並於該法第41條設有過渡條款,明定憑證機構必須於今年(2005)930日前取得電子認證服務許可,於今年(2005)101日起,未取得許可者不得繼續從事電子認證服務,是以不採自願認可制。

相關連結
※ 中華人民共和國發布「電子認證服務管理辦法」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=671&no=55&tp=1 (最後瀏覽日:2026/03/02)
引註此篇文章
你可能還會想看
吃的安心 基改農產品安全性測試系統上路

  自從1994年第一種基因改造(Genetically Modified , GM)農產品~番茄在美國上市後,越來越多的GM農產品進入了我們的生活,使得大家越來越注重食用的安全性。行政院農業委員會農業藥物毒物試驗所開發的基因改造農產品安全測試系統於11月正式上路,日後台灣自行研發的GM農產品上市前,可以送到藥毒所檢驗,以確定對人體無害。   國際間對於GM農產品安全性爭議主要有兩個層面:生物安全性(作為食品之安全性)與生態環境安全(對環境的衝擊評估)。整體而言,GM農產品的食用安全評估以過敏性測試最為重要,也就是針對轉殖的DNA基因,測試其外源表現物質(蛋白質)對人體的影響,換句話說:蛋白質是較容易讓人體產生過敏的來源。   藥毒所開發的過敏反應和安全性測試系統,其針對GM農產品的評估方法有三:序列比對(和已知過敏原比對)、消化穩定性(採用人工胃液和腸液分解測試)、動物實驗模式(讓大白鼠直接食用)。相信這套安全測試系統的上路,可讓民眾食用台灣自行研發的GM農產品較為安心。

行政院發布公告「中小企業增僱員工薪資費用加成減除辦法」

法國國家資訊自由委員會將推出符合GDPR的人工智慧操作指引(AI how-to sheets)

法國國家資訊自由委員會(CNIL)於2023年10月16日至11月16日進行「人工智慧操作指引」(AI how-to sheets)(下稱本指引)公眾諮詢,並宣布將於2024年初提出正式版本。本指引主要說明AI系統資料集建立與利用符合歐盟一般資料保護規則(GDPR)之作法,以期在支持人工智慧專業人士創新之外,同時能兼顧民眾權利。 人工智慧操作指引主要內容整理如下: 1.指引涵蓋範圍:本指引限於AI開發階段(development phase),不包含應用階段(deployment phase)。開發階段進一步可分為三階段,包括AI系統設計、資料蒐集與資料庫建立,以及AI系統學習與訓練。 2.法律適用:當資料處理過程中包含個人資料時,人工智慧系統的開發與設計都必須確定其適用的法律規範為何。 3.定義利用目的:CNIL強調蒐集及處理個資時應該遵守「明確」、「合法」、「易懂」之原則,由於資料應該是基於特定且合法的目的而蒐集的,因此不得以與最初目的不相符的方式進一步處理資料。故明確界定人工智慧系統之目的為何,方能決定GDPR與其他原則之適用。 4.系統提供者的身分:可能會是GDPR中的為資料控管者(data controller)、共同控管者(joint controller)以及資料處理者(data processor)。 5.確保資料處理之合法性:建立AI系統的組織使用的資料集若包含個人資料,必須確保資料分析與處理操作符合GDPR規定。 6.必要時進行資料保護影響評估(DIPA)。 7.在系統設計時將資料保護納入考慮:包含建立系統主要目標、技術架構、識別資料來源與嚴格篩選使用…等等。 8.資料蒐集與管理時皆須考慮資料保護:具體作法包含資料蒐集須符合GDPR、糾正錯誤、解決缺失值、整合個資保護措施、監控所蒐集之資料、蒐集之目的,以及設定明確的資料保留期限,實施適當的技術和組織措施以確保資料安全等。 對於AI相關產業從事人員來說,更新AI相關規範知識非常重要,CNIL的人工智慧操作指引將可協助增強AI產業對於個資處理複雜法律問題的理解。

歐盟執委會提出「具可信度之人工智慧倫理指引」

  歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。   該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。

TOP