本文為「經濟部產業技術司科技專案成果」
歐盟執委會(European Commission)於2021年2月22日發布「民用、國防與航太產業之協同行動計畫」(Action Plan on Synergies between Civil, Defence And Space Industries),作為進一步加強歐盟前瞻科技與和相關基礎產業的行動方針。這也是歐盟首次以歐盟防禦基金(European Defence Fund)策畫補助民用、國防與航太產業領域中具有泛用性及破壞式潛力的前瞻科技(例如雲端、處理器、網路、量子和人工智慧等),以強化歐盟創新能力。 該行動計畫之目標為:(1)the synergies(協作):強化歐盟相關計畫與研究工具的互補性,使其得以涵蓋研究(research)、開發(development)和部署(deployment)三個區塊,並增加投資效益和成果有效性;(2)the spin-offs(衍生企業):本行動計畫鼓勵國防投資以促進國防研究衍生企業,使國防和太空的創新研究成果得以作為民用,持續發展相關技術;(3)the spin-ins(內部創新):前瞻領域的創新往往來自新創事業、中小企業和民間科研機構,因此本行動計畫促進歐洲各國國防合作計畫執行時運用民用產業創新研發成果,避免重複研究耗費資源。 為達到前述目標,該行動計畫臚列11個民用、國防與航太產業共同協作行動,並可綜整為四大方向:(1)創建框架以加強歐盟在相關計畫和研究工具間的協同作用和互惠(cross-fertilisation),例如在數位、雲端和處理器等產業領域建立共通框架;(2)關鍵技術(critical technologies)開發應確保系統一致,包含初步確認關鍵技術與未來相容性要求、進一步共同確認技術發展藍圖、最後確定旗艦計畫(flagship projects)間應減少依賴性並增加標準化和互操作性(interoperability),同時促進跨境與跨域合作;(3)建立創新孵化器(innovation incubator)網路支持新創事業、中小企業和科研機構(Research & Technology Organisation, RTO)的創新;(4)發展三大旗艦計畫,分別為無人機技術(drone technologies)、以航太為架構的安全連結技術(space-based secure connectivity)、以及太空交通管理技術(space traffic management),並藉由計畫發展相關產業使歐盟成為改變世界規則之領導者。 此外,該行動計畫雖然目前僅限於使用在歐盟級計畫和研究工具,但也可能積極影響並觸發歐盟各國仿效類似行動,進一步影響歐盟境外合作夥伴共同支持該行動。
何謂「監理沙盒」?沙盒(Sandbox)是一個讓小孩可以安全遊玩與發揮創意的場所,在電腦科學領域,沙盒則是用來代稱一個封閉而安全的軟體測試環境。而監理沙盒(Regulatory Sandbox),則是在數位經濟時代,為因應各種新興科技與新商業模式的出現,解決現行法規與新興科技的落差,故透過設計一個風險可控管的實驗場域,提供給各種新興科技的新創業者測試其產品、服務以及商業模式的環境。 在監理沙盒當中,業者將暫時享有法規與相關責任的豁免,減低法規遵循風險,以使業者能夠盡可能地測試其技術、服務或商業模式。透過在測試過程中與監管者(通常為政府主管機關)的密切互動合作,針對在測試過程中所發現或產生的技術、監管或法規問題,一同找出可行的解決方案,並作為未來主管機關與立法者,修改或制定新興科技監管法規的方向跟參考。 監理沙盒一詞源自英國在2014年因應Fintech浪潮所推動的金融科技創新計畫,而類似的概念也出現在日本2014年修正產業競爭力強化法當中的灰色地帶消除制度與企業實證特例制度。我國則於2017年通過金融科技發展與創新實驗條例,為我國監理沙盒的首例,2018年我國持續推動世界首創的無人載具科技創新實驗條例立法,為我國建構更有利於產業創新的法制環境。
美國廠商使用之DMCA侵權調查正確性遭質疑一項由華盛頓大學所發表的研究聲明指出,媒體工業團體正使用有瑕疵的方式調查peer-to-peer網路文件共享中侵害著作權的問題。包括M.P.A.A.、E.S.A.、R.I.A.A等團體,不斷寄出逐年增加的DMCA侵權移除通知(takedown notices)給各大學和其他的網路業者。許多大學會在未經查證的情況下直接將侵權移除通知轉寄給學生,R.I.A.A.甚至跟進其中的一些侵權報告並將之寫入財務報告中。 但在2008年6月5日由華盛頓大學的助理教授等三人所發表的研究中認為這一些侵權移除通知應該更審慎檢視之。研究指出,這些團體在指控檔案分享者的調查過程中有嚴重的瑕疵,可能使對方遭受不當的侵權指控,甚至可能來自其他網路使用者的陷害。在2007年5月及8月的兩次實驗中,研究員利用網路監控軟體監控他們的網路流量,實驗結果顯示即使網路監控軟體並未下載任何檔案,卻仍然接收到了超過400次的侵權警告信。 該研究結果顯示執法單位的調查過程中只查詢了網路分享軟體使用者的I.P.位址,卻未真正查明使用者正在下載或是上傳的實際檔案為何,在這種薄弱的搜查技巧跟技術方式之下任何使用網路文件分享軟體的使用者都可能被告,不論其所分享的檔案是否侵權皆如此。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。