人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。
AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。
「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點:
一、 資料側寫之公平性與透明性(fairness and transparency in profiling);
二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性;
三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策;
四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險;
五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性;
六、 資料最少化與目的限制(data minimization and purpose limitation);
七、 資料當事人之權利行使(exercise of rights);
八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。
ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。
韓國中小企業暨新創事業部(Ministry of SMEs and Startups)於2025年8月26日宣布,國務會議已審議通過《中小企業基本法施行法》(Enforcement Decree of the Framework Act on Small and Medium Enterprises)部分條文修正案,調整中小企業(Small and Medium Enterprises)銷售額認定基準(Sales Threshold)。 判斷企業是否屬於「中小企業」主要依據兩項因素:一、依資產和銷售額訂定的企業規模標準;二、用以評估企業是否獨立於其關係企業(affiliation)的獨立性標準。其中,以銷售額作為認定依據的基準,是按行業別三年平均值計算,自2015年制定以來至今已十年未作調整。 然而,自 COVID-19 疫情以來物價急遽上升,生產成本大幅增加,導致部分中小企業在未有實質成長的情況下,銷售額僅因通膨因素而形式上增加,進而被迫脫離中小企業範圍,失去關於中小企業的優惠保障。因此,中小企業界過去一直有呼籲調整中小企業銷售額認定基準。 為合理調整中小企業銷售額認定基準,中小企業暨新創事業部經與業界、相關部會及學界專家協商後,決定調整認定基準。爰此,《中小企業基本法施行法》部分條文修正案已由國務會議審議通過,並於2025年9月1日公布生效。 修訂案主要內容如下: 首先,中小企業部分:在44個行業別中,有16個行業的銷售額認定基準將比現行標準上調200億至300億韓元;銷售額範圍則由400億至1,500億韓元調整為400億至1,800億韓元。 其次,小型企業(Small enterprises)部分:在43個行業別中,有12個行業的銷售額認定基準將比現行上調5億至20億韓元;銷售額範圍則由10億至120億韓元調整為15億至140億韓元。 因應此次修法,受影響的中小企業─即目前享有「中小企業畢業寬限期優惠」(SME graduation grace period),但因修法而重新取得中小企業資格之企業─將予以配套措施。 所謂「中小企業畢業寬限期優惠」,係指當企業因銷售額增加而超過中小企業銷售額認定基準時,仍可在最長五年內仍被認定屬中小企業的身份,以協助其有充裕時間平穩過渡至成為中型企業(medium-sized enterprises)。 因此,「中小企業畢業寬限期優惠」僅適用於首次因銷售額增加而超過中小企業認定基準,不再屬於中小企業的企業。 然而,若目前正享有「中小企業畢業寬限期優惠」的企業,因此次修法調整銷售額認定基準而重新取得中小企業資格,導致目前享有的寬限期優惠被中斷結束,未來若再次因銷售額超過中小企業銷售額認定基準,而不再屬於中小企業,將予以配套措施,可再享有一次「中小企業畢業寬限期優惠」。 韓國此次調整中小企業銷售額認定基準並完善中小企業畢業寬限期優惠制度,可作為我國修訂中小企業政策之參考。
美國科技公司指控六名中國人竊取科技公司營業秘密美國司法部起訴六名中國大陸公民,包含三名大學教授,在美從事商業間諜活動,自兩間科技公司竊取有關行動通訊技術的敏感資料,並已經提供中國大陸的大學及企業預備產製。如果罪名成立,最多可判刑15年。被竊取營業秘密包括載有薄膜體聲波共振器(FBAR)的原始碼、規格、配方等文件,主要應用在行動通訊,如平版、智慧型手機、GPS設備等消費性產品及軍事、國防通訊技術,其作用在於過濾無線訊號,改善通訊品質。 據報導,其中兩名被告張浩與龐慰為天津大學的教授,在美國南加州的一所大學攻讀電子工程學博士學位相識,期間獲得國防高等研究計劃署 (DARPA)提供的研究經費,研究FBAR技術。2005年取得學位後,分別進入Avago Technologies與Skyworks Solutions科技公司擔任FBAR工程師,並竊取分別屬於二公司的營業秘密。2006至2007年間,更開始接觸中國大陸的大學,尋找生產FBAR技術的可能性,最終得到天津大學支援,在中國大陸建立FBAR技術中心,更在2009年分別自二科技公司離職,擔任天津大學的全職教授,同時合資成立ROFS精密儀器公司,計畫生產FBAR產品,並已和企業和軍方簽訂契約。 美國政府表示,外國機構利用在美國活動的個人從事商業間諜活動,竊取美國企業投入高額成本開發的技術資料,將造成美國企業的重大損失,削弱市場競爭力,最終損害美國在全球經濟的利益,故將持續調查、蒐集不法證據,以打擊商業間諜活動與制止竊取營業秘密為首要任務。
世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。
從國外案例談軟體漏洞資訊公布與著作權防盜拷措施