為了解2022年公布《新創企業發展五年計畫》(スタートアップ育成5か年計画)(下稱新創計畫)後之情形,日本經濟產業省(簡稱經產省)針對新創企業造成之影響進行調查,於2024年7月22日發布「新創企業之經濟外溢效果」(スタートアップによる経済波及効果)調查摘要(下稱調查摘要),簡述如下:
1.新創企業之經濟貢獻:新創計畫期望透過新創企業提昇產業競爭力,並提供青年就業機會,故積極進行人才培育與輔導創業。根據調查摘要,自新創計畫執行後日本新創企業所創造之國內生產毛額(Gross Domestic Product, GDP)為10.47兆日元(約新台幣2.1兆元),若包含外溢效果(Spillover Effect)則為19.39兆日元(約新台幣3.88兆元),並創造52萬個就業機會。
2.新創企業改變經濟結構之潛力:根據調查摘要,過去10年間日本新創公司併購案件增長22%,顯示其經濟實力提升;且新創公司中女性主管的比例增加,亦顯示其可改善日本女性職場地位。
3.創投資金注入引發新創企業之外溢效果:新創計畫鼓勵創投公司投資新創企業,由於擁有更多之週轉資金,與未接受創投的企業相比,接受創投的企業在擴大就業和創新方面表現更佳。新創計畫推動後,目前日本創投對新創公司之投資金額增加7.8倍(70%之新創公司獲得創投公司投資),並創造13.94兆日元(約新台幣2.8兆元)之GDP。
本文為「經濟部產業技術司科技專案成果」
隨著資料多元應用,大量個資可能被企業、組織等從銀行、線上零售業者傳輸到雲端、學術機構等,因此在跨境傳輸基礎上需要共同的監管制度,以利資料保護和隱私標準。英國科技產業協會(techUK)和英國金融協會(UK Finance)共同於2017年11月30日呼籲英國政府和歐盟應迅速採取行動,以利於繼續保護消費者和企業在英國退出歐盟(Brexit)後兩地跨境傳輸個資。 另外,在Dentons國際律師事務所提出關於歐盟與英國未來資料共享關係之聯合報告(No Interruptions: options for the future UK-EU data sharing relationship)中,techUK和UK Finance說明英國和歐盟雙方如何達成適當保護協議(adequacy agreement),英國政府亦於2017年8月發布個人資料交換和保護未來合作文件(The exchange and protection of personal data - a future partnership paper),將持續依一般資料保護規則(General Data Protection Regulation, GDPR)調整,而在過渡期間為企業提供監管確定性,而公司亦需重新考慮GDPR於2018年5月實施後相關替代機制,如企業自我約束規則(Binding Corporate Rules, BCRs)、標準契約條款(Standard Contractual Clauses, SCCs)等。由於英國2019年3月脫歐後,將不會直接適用GDPR,因此除非有新的安排,個資在歐盟傳輸仍可能受限,而需昂貴複雜替代機制,故仍應速採取行動: 歐盟和英國應速開始適當保護評估程序(adequacy assessment processes)。 為避免個資傳輸之「懸崖邊緣」(“cliff-edge”),應即為過渡期之安排。 英國應考慮實施其他措施,確保歐盟對英國資料保護框架之擔憂能獲解決,尤其是國家安全目的之資料處理。 英國應確保國際傳輸制度(包括美國在內),與歐盟具相同保護水準,且此作為歐盟適當保護評估的關鍵。
我國遊戲軟體著作權爭議探討 美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。