新創事業計畫(CTI Startup)於1996年推出,為創業家提供創業輔導服務。該計畫挑選有創新商品想法的年輕企業家,藉由在創業過程中,從旁給予實質指導的方式使創新想法可以落實,成立有競爭力的新創企業。為使補助與輔導資源能夠充分的發揮作用,入選新創事業計畫有非常嚴格的程序,大致可分為四個階段,第一階段CTI會針對申請團隊的想法是否創新、技術上是否可行為標準對商業構想進行初步的篩選,並從旁協助申請者註冊新創事業計畫。完成註冊後,將進入第二階段進行更為具體的專業審查,評估的標準包主要包括技術、市場、可行性與管理團隊的能力等層面。通過審查後,即進入專業指導階段,每一個團隊將被授予一位專業的「創業導師」,在團隊創業的過程中,協助其進一步發展與優化企業的戰略、流程與商業模式,並針對新創企業遇到的具體經營問題給予指導與建議。專業指導階段旨在輔導新創事業取得「CTI新創事業標章」(CTI Startup Label),新創事業標章的審查相當嚴格。
本文為「經濟部產業技術司科技專案成果」
93年專利申請統計資料顯示我國受理專利申請案總數、發明申請案數量、及國人發明申請案等指標,均呈現相當幅度成長,顯示我國過去幾年官方與民間投資創新研發成果有明顯成長。 93年專利、商標申請與核准統計出爐,全年專利新申請案件總數72,105件,較92年的65,742 件增加6,363件(9.68﹪),本國人申請案43,038件,外國人29,067件。其中屬技術強度較高的發明申請案件總數計41,930件,較前一年增加6,107件(17.05﹪);本國人發明申請案16,754件,較前一年大幅增加3,705件(28.39﹪),顯示我國產業研發技術成果有向上提昇的趨勢。93年專利發證數66,415件,比92年大幅增加24,333件(57.82﹪),此係因93年7月專利法修正實施,新型專利改採形式審查,縮短專利審查時程,及專利廢除異議制度改採繳費後公告同時發證的制度轉換短期影響。 93年商標申請案依類別統計為72,650件,比92年申請案件數65,907件,增加6,743件(10.23﹪),;93年商標公告註冊案計54,912件,較前一年74,572件減少19,660件(-26.36﹪);依類別計55,986件,均較前一年減少。不論是在申請或公告註冊數都是以本國人佔絕大多數。商標申請於92年底開始實施一申請案多類別制度,不同類別毋需另提出一獨立申請案,因此依類別統計數會比申請案件數多。
美國資訊安全分析新挑戰:巨量資料(Big Data)之應用在2013年的國際資訊安全會議(RSA Conference)上,資安專家紛紛表示,將Big Data技術應用於資訊安全分析的項目上,確實可以幫助企業建立更佳的情勢判斷能力,但在實際執行過程中是一大挑戰。 資安廠商如RSA和賽門鐵克公司,在會議上表示目前的策略是透過新的數據匯集、比對和分析協助企業篩選、過濾結構化和未結構化資料的威脅指標,這是傳統的特徵偵測(signature-based)安全工具無法做到的。 不像傳統的安全手段著重於阻斷攻擊,新的技術強調偵測並立即回應違犯行為,也就是提前遏止任何違犯行為,協助企業作全面性的偵測而不擔心有所遺漏。 由於越來越多的美國政府機關和民間企業遭受到針對性和持續性的攻擊,巨量資料技術的應用需求激增。企業內部都累積著大量的數據和多元的數據種類,而需要動新技術來保護這些數據資料免於惡意人士或對手的竊取或其他侵害行為。企業應該要因應實際面臨的威脅和所獲悉的威脅情報來建立安全模型,取代部署特定產品和外圍系統的防禦。 美國無論是政府機關或民間企業都被捲入了不對稱戰爭-對手是武器精良、準備充分並有嚴密組織的網路敵人。 「駭客只需要攻擊成功一次,但我們必須每次都是成功的」賽門鐵克的總裁deSouza表示。「因此與其專注的在阻擋所有威脅,更好的辦法是使用巨量資料技術偵測侵入行為並消解之」。而在會議中資安專家都肯認至少從理論上來說,以巨量資料技術強化資訊安全是很好的想法。 不過另有其他的說法,金融服務企業LSQ的首席安全及法務主管皮爾遜認為,許多人的電腦紀錄檔和所有的電子裝置都早就被侵入滲透了,這才是問題所在。他表示,目前現存的SIEM(安全性資訊及事件管理)工具可以讓企業聚集來自許多個安全設備的巨量登錄數據整合在同一系統內,但真正的問題是,SIEM工具必須要有能力分析數據並找出關聯性,如此才能偵測到駭客入侵的前兆證據和真實的入侵行為,這和彙整數據是不同的兩件事。許多企業所面臨的問題不是缺乏數據資料,而是要如何為資訊安全的目的建立關聯規則和應用方式,以有效率的方式找出有用的巨量數據並進行分析,和留下可供進行訴訟使用的證據。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。