瑞士洛桑管理學院(International Institute for Management Development, IMD)於2019年11月18日發布2019 年世界人才評比報告(The IMD World Talent Ranking 2019 results)。IMD作為全球最著名商學院之一,其所屬之世界競爭力研究中心(IMD World Competitiveness Center, WCC)透過收集數據以及分析相關政策結果,推進對世界競爭力的認知,包含每年出版年度世界競爭力排名(World Competitiveness Rankings)、世界數位競爭力報告(World Digital Competitiveness Ranking),和世界人才評比報告。
2019 年世界人才評比報告以「人才投資與發展」、「人才吸引力」和「人才整備度」(Readiness)為三大評比指標,評比63個經濟體。「人才投資與發展」衡量國家提供給人力之資源,「人才吸引力」評估吸引本地和外國人才的程度,「人才整備度」則評估人才技術及競爭品質。三大指標下再區分有32個細項,包含公共教育支出、師生比、在職訓練、女性勞動力、學徒制度、員工獎酬及紅利、個人所得稅率、職場環境健康等。
2019年之人才評比結果,前5名均為歐洲國家,依序為瑞士、丹麥、瑞典、奧地利及盧森堡。我國在全球排名20,亞洲排名第3,僅次新加坡(10)與香港(15),勝過排名分別為35和33的日韓兩國,為歷年來排名最佳。細項中,我國較為優勢的部分包括國際學生能力評鑑(PISA)排名第2、理工科畢業生比例全球第3、衛生健康環境全球第6等。
本文為「經濟部產業技術司科技專案成果」
由於電子商務的應用往往涉及一些技術層面概念,當法律的適用遇到這些應用與解釋時,不免提高法院在裁判上的困難度。 以美國馬里蘭州上訴法院在五月初進行的 Beyond Systems Inc. v. Realtime Gaming LLC. 案件言詞辯論為例,由於該案涉及網路與法院管轄權之爭議,審理該案的數位法官均坦承對於律師在言詞辯論過程中所提到的一些技術名詞解釋感到理解上有些困難。該案是由位在馬里蘭州的原告指控位於喬治亞州發展互動軟體的公司,聲稱在 2003 年底自被告收到 240 封垃圾電子郵件,違反該州的反垃圾郵件法。馬里蘭州的地方法院駁回原告的訴訟,乃因現有證據很難判斷被告與馬里蘭州之間有地源上的關聯性,故該法院對於被告沒有管轄權。在上訴法院的言詞辯論中,原告指稱,從新墨西哥州所寄發的電子郵件內附有被告的網站連結;而被告則表示其並未寄發大量垃圾郵件給原告,此外,光是網站的存在以及在網際網路上提供資訊並不能做為法院主張管轄權的依據。 儘管雙方律師在法庭上互執己見就該案從不同角度進行辯論,但兩邊律師皆表示,要在現階段於法庭上對電子商務及電子通訊提出定義及解釋都不是容易的事,尤其在網際網路這塊領域中,要認清誰是行為主體是難度很高的事。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。