2025年12月,日本人工智慧安全研究所(AI Safety Institute,下稱AISI)與日本獨立行政法人情報處理推進機構(Information-technology Promotion Agency Japan,下稱IPA)共同發布《資料品質管理指引》(Data Quality Management Guidebook)。此指引旨於協助組織落實資料品質管理,以最大化資料與AI的價值。指引指出AI加劇了「垃圾進,垃圾出(Garbage in, Garbage out)」的難題,資料品質將直接影響AI的產出。因此,為確保AI服務的準確性、可靠性與安全性,《資料品質管理指引》將AI所涉及的資料,以資料生命週期分為8個階段,並特別強調透過資料溯源,方能建立透明且可檢核的資料軌跡。 1.資料規劃階段:組織高層應界定資料蒐集與利用之目的,並具體說明組織之AI資料生命週期之各階段管理機制。 2.資料獲取階段:此步驟涉及生成、蒐集及從外部系統或實體取得資料,應優先從可靠的來源獲取AI模型的訓練資料,並明確記錄後設資料(Metadata)。後設資料指紀錄原始資料及資料歷程之相關資訊,包含資料的創建、轉檔(transformation)、傳輸及使用情況。因此,需要記錄資料的創建者、修改者或使用者,以及前述操作情況發生的時間點與操作方式。透過強化來源透明度,確保訓練資料進入AI系統時,即具備可驗證的信任基礎。 3.資料準備階段:重點在於AI標註(Labeling)品質管理,標註若不一致,將影響AI模型的準確性。此階段需執行資料清理,即刪除重複的資料、修正錯誤的資料內容,並持續補充後設資料。此外,可添加浮水印(Watermarking)以確保資料真實性與保護智慧財產權。 4.資料處理階段(Data Processing):建立即時監控及異常通報機制,以解決先前階段未發現的資料不一致、錯漏等資料品質問題。 5.AI系統建置與運作階段:導入RAG(檢索增強生成)技術,檢索更多具參考性的資料來源,以提升AI系統之可靠性,並應從AI的訓練資料中排除可能涉及個人資料或機密資訊外洩的內容。 6. AI產出之評估階段(Evaluation of Output):為確保產出內容準確,建議使用政府公開資料等具權威性資料來源(Authoritative Source of Truth, ASOT)作為評估資料集,搭配時間戳記用以查核參考資料的時效性(Currentness),避免AI採用過時的資料。 7.AI產出結果之交付階段(Deliver the Result):向使用者提供機器可讀的格式與後設資料,以便使用者透過後設資料檢查AI產出結果之來源依據,增進透明度與使用者信任。 8.停止使用階段(Decommissioning):當資料過時,應明確標示停止使用,若採取刪除,應留存刪除紀錄,確保留存完整的資料生命週期紀錄。 日本《資料品質管理指引》強調,完整的資料生命週期管理、強化溯源為AI安全與創新的基礎,有助組織確認內容準確性、決策歷程透明,方能最大化AI所帶來的價值。而我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,同樣強調從源頭開始保護資料,歷程存證與溯源為關鍵,有助於組織把控資料品質、放大AI價值。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
為保護金融消費者日本金融廳研議「電子銀行法」相關立法二00四年十二月九日日本金融廳表示,為因應日益頻繁的網路及IC智慧卡被用以進行電子金融交易的現況,該廳將研議「電子銀行法」(暫稱)之立法以保障金融消費者,並將此納為未來施政方針。該項立法提案計劃已納入金融廳最新的金融行政方針─「金融重點強化計劃」(2005年4月起2007年3月止)之中,期待在2005年至2006年度間完成立法。 目前電子金融交易及電子現金等實務現況雖有可能涉及「電子簽章法」及「電子消費者契約法」的相關規範,惟金融廳的研究認為尚缺乏對此類交易活動的「總合性立法規範」。該立法研議甚擬導入對於因在網路上交易不慎遭受「冒名欺騙」 (?????;spoofing)的被害人,由金融機構為一定額補償的制度。
法國CNIL發布針對應用程式的隱私保護建議在民眾越來越依賴行動裝置的應用程式進行日常活動的年代,諸如通訊、導航、購物、娛樂、健康監測等,往往要求訪問更廣泛的資料和權限,使得應用程式相較於網頁,在資料安全與隱私風險上影響較高。對此,法國國家資訊自由委員會(Commission Nationale de l'Informatique et des Libertés, CNIL)於2024年9月發布針對應用程式隱私保護建議的最終版本,目的為協助專業人士設計符合隱私友好(privacy-friendly)的應用程式。該建議的對象包含行動裝置應用程式發行者(Mobile application publishers)、應用程式開發者(Mobile application developers)、SDK供應商(Software development kit, SDK)、作業系統供應商(Operating system providers)和應用程式商店供應商(Application store providers),亦即所有行動裝置生態系中的利害關係者。以下列出建議中的幾項重要內容: 1. 劃分利害關係者於手機生態系中的角色與責任 該建議明確地將利害關係者間作出責任劃分,並提供如何管理利害關係者間合作的實用建議。 2. 改善資料使用許可權的資訊提供 該建議指出,應確保使用者瞭解應用程式所請求的許可權是運行所必需的,並且對資料使用許可的資訊,應以清晰及易於獲取的方式於適當的時機提供。 3. 確保使用者並非受強迫同意 該建議指出,使用者得拒絕並撤回同意,且拒絕或撤回同意應像給予同意一樣簡單。並再度強調應用程式僅能在取得使用者知情同意後,才能處理非必要資料,例如作為廣告目的利用。 此建議公布後,CNIL將持續透過線上研討會提供業者支援,協助其理解和落實這些建議。同時,CNIL表示預計於2025年春季起,將對市面上應用程式實行特別調查,透過行政執法確保業者遵守相關隱私規範,尤其未來在處理後續任何投訴或展開調查時,會將此建議納入考慮,且會在必要時採取糾正措施,以有效保護應用程式使用者的隱私。 .Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} .Psrc{text-align: center;}
歐盟公布人工智慧白皮書歐盟執委會於2020年2月19日發表《人工智慧白皮書》(White Paper On Artificial Intelligence-A European approach to excellence and trust)指出未來將以「監管」與「投資」兩者並重,促進人工智慧之應用並同時解決該項技術帶來之風險。 在投資方面,白皮書提及歐洲需要大幅提高人工智慧研究和創新領域之投資,目標是未來10年中,每年在歐盟吸引超過200億歐元關於人工智慧技術研發和應用資金;並透過頂尖大學和高等教育機構吸引最優秀的教授和科學家,並在人工智慧領域提供世界領先的教育課程。 而在監管方面,白皮書提到將以2019年4月發布之《可信賴之人工智慧倫理準則》所提出之七項關鍵要求為基礎,未來將制定明確之歐洲監管框架。在監管框架下,應包括下列幾個重點:1.有效實施與執行現有歐盟和國家法規,例如現行法規有關責任歸屬之規範可能需要進一步釐清;2.釐清現行歐盟法規之限制,例如現行歐盟產品安全法規原則上不適用於「服務」或是是否涵蓋獨立運作之軟體(stand-alone software)有待釐清;3.應可更改人工智慧系統之功能,人工智慧技術需要頻繁更新軟體,針對此類風險,應制定可針對此類產品在生命週期內修改功能之規範;4.有效分配不同利害關係者間之責任,目前產品責任偏向生產者負責,而未來可能須由非生產者共同分配責任;5.掌握人工智慧帶來的新興風險,並因應風險所帶來之變化。同時,白皮書也提出高風險人工智慧應用程式的判斷標準與監管重點,認為未來應根據風險來進行不同程度之監管。執委會並透過網站向公眾徵求針對《人工智慧白皮書》所提出建議之諮詢意見,截止日期為2020年5月19日。