歐盟執委會於2020年4月7日發起ERA vs CORONA行動計畫,透過歐洲研究區(European Research Area, ERA)全力支持歐洲科研合作、共享科學資訊,並給予歐洲研究團隊與企業充足的研發疫苗資金,用以對抗COVID-19。歐盟執委會已與各國達成共識,確認ERA vs CORONA行動計畫的10項優先行動: 協調各國研究與創新(Research and innovation, R&I)資金投入,專注研發新型冠狀病毒的疫苗與治療方法,加強創新合作模式以對抗疫情。 支持新型冠狀病毒患者的臨床管理,與歐盟大規模臨床實驗計畫。 將資金投入創新領域回應社會需求,關注疫情對社會經濟、醫療及資通訊技術應用、衛生系統及製造業的影響。 藉由Horizon 2020 增加對新創公司的研發財務支持;拓展歐洲創新委員會ePitching計畫(EIC ePitching),鼓勵公私夥伴共同尋求解決方案。 創造資金來源促進R&I行動,引導新創及中小企業申請國家及地方資金、私人基金會、投資歐洲計畫(Invest EU)等。 建立ERA Corona平台,提供研發資金相關的一站式服務,包括歐盟各國補助新型冠狀病毒R&I計畫的完整資訊。 設立新型冠狀病毒特設高階R&I工作小組,規劃歐盟中長期防疫措施。 加強研究基礎設施布建及跨國資料庫利用。 創建歐洲COVID-19研究資料共享平台 ,連接歐洲開放科學雲,允許快速共享研究資料及成果以加速研發、公平分享資訊。 舉辦泛歐黑客松(EU vs Virus)推動歐洲創新與社會交流。
日本著作權法修正促進人工智慧開發2018年5月18日,於第196次參議院會議中通過「著作權法」修正案,並於5月25日公布,預計於2019年1月1日施行。本次修正是為因應數位網路技術的發展,對需要著作權人同意的行為範圍進行檢視。其中第47條之7修正、及新增之第30條之4與第47條之5與人工智慧發展有重大相關。 日本著作權法於2009年的修正中,增加第47條之7規定,原本可能構成著作權侵害之資料分析、機器學習行為(未經原作者同意複製、改作),只要在必要限度內,不分是否有營利,皆無須權利人同意。然而本條在使用上因為未涵蓋成果物的讓與行為,也就是如果公開販售學習完成的資料集或是人工智慧模型,甚至於同一平台共享資料集都可以構成侵害。有鑑於此,才在本次修法中修正相關條文。 本次修正中,增加第30條之4規範於必要限度內可利用他人著作物的行為,其中在同條第二款中認可第47條之5第1項第2款之行為,也就是「利用電子計算機的情報解析及提供其結果」,亦可被認為不違反著作權法,因而補上原本第47條之7的漏洞。 惟須注意的是,所謂的必要限度還是有嚴格的比例限制,不能無限制使用。由於目前本次修正還尚未生效,未來對人工智慧發展的應用會產生什麼樣的實際影響,值得繼續觀察。
南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。
英國無線電頻譜管理改革政策(上)-政策源起與目標