什麼是瑞士「創業實驗室」(Venture Lab) ?

  科技與創新委員會(Commission of Technology & Innovation,以下簡稱CTI)係瑞士重要之創新推進機構,成立於1943年,2011年新修正之研究與創新促進法實施後,CTI正式從經濟部聯邦職業教育及科技局(Federal Office for Professional Education and Technology, OEPT)獨立出來,成為一個具決策權的獨立機關,直接隸屬於聯邦經濟事務部(Federal Department of Economic Affairs, FDEA)。

  CTI為擴大高科技創業並創造研發成果商品化之效益推動創業家計畫。該計畫主要係由CTI出資成立的「創業實驗室」(Venture Lab)來執行。創業實驗室針對大學生及創業家推出了一系列創業推廣及訓練課程,從單日的工作坊、五日之創業實務密集課程到在大學開設的創業學期課程,每一個訓練課程都有專家評審,針對創新構想及商業模式給予參與課程者具有建設性的建議。



資料來源:Venture Lab網站
圖 Venturelab 創業課程
 

本文為「經濟部產業技術司科技專案成果」

你可能會想參加
※ 什麼是瑞士「創業實驗室」(Venture Lab) ?, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7305&no=86&tp=5 (最後瀏覽日:2025/12/03)
引註此篇文章
你可能還會想看
美國聯邦交通部公布自駕車4.0政策文件

  美國交通部(Department of Transportation)於2020年1月8日公布「確保美國於自動駕駛技術之領導地位:自駕車4.0」(Ensuring American Leadership in Automated Vehicle Technologies : Automated Vehicles 4.0)政策文件,提出三個核心原則及相對應的策略規劃: 一、 使用者與社會的保護: 整合自動駕駛技術之安全性,包括防堵對自駕車性能之詐欺或誤導行為,以強化民眾對此新興技術的信心。 與自駕車技術開發商、製造商及服務商合作,預防與降低惡意使用自動駕駛技術所造成的公共安全威脅及犯罪,如制定網路安全標準、於運輸系統之資料傳輸媒介及資料庫設計能夠防止、反應、偵測潛在或已知危險之可行作法。 要求製造商於設計和結合相關自動駕駛技術時,採取具整體風險考量之方式,以確保資料安全性與公眾隱私保護,特別是針對駕駛者與乘客,以及第三人資料存取、分享及使用。 支援與協助自動駕駛技術研發,並透過提供多樣化商品和服務,滿足消費者需求並增加自駕車的普及性,使國人能使用安全且能負擔的移動載具。 二、 保障市場效率: 採取靈活及技術中立政策,由大眾選擇具經濟及有效率的運輸方案。 透過相關智慧財產法規,保護相關技術,並持續推動經濟增長之政策及提升國內技術創新競爭力。 收集與研擬國內外法規資料,並使自動駕駛技術產品及服務能夠與國際標準接軌。 三、 促進與協調各方合作: 積極協調全國自動駕駛技術研究、法規和政策,以利有效運用各機構資源。 參考國際間自動駕駛技術標準及監理法規,並與各州政府及業界共同研擬與整合自動駕駛技術至現行運輸系統標準與相關法規。

美國對於智慧聯網 IoT 環境隱私保障展開立法工作

  有鑒於智慧聯網IoT環境下,許多智慧型手持裝置及行動通訊裝置,大量蒐集消費者資訊之隱私權暨資訊安全考量,美國國會於2013年5月10日提出「應用軟體隱私暨資訊安全保護法草案」(Application Privacy, Protection, and Security Act of 2013, APPS Act of 2013, H.R. 1913)進行審議。「應用軟體隱私暨資訊安全保護法草案」草案針對應用軟體(Application)在蒐集消費者資訊前,如何落實「同意」機制,乃強制行動通訊裝置應用軟體開發商(developer)應:(1)提供使用者個人資料蒐集、使用、儲存及公開之通知(notice),而該通知含括所蒐集個人資料之種類、使用目的、有償公開第三者之類別及資料儲存等;(2)取得使用者之同意(consent);消費者依據該草案亦有權撤銷其「同意」(withdrawal of consent)。此外,草案乃強制要求該行動通訊裝置應用軟體開發商,就非法近取之個人資料及經去識別化應用軟體蒐集之個人資料,應採取合理及適當之防衛措施(security measures on personal data and de-identified data)。   並且,針對網路環境下隱私權保護議題,更早之前,美國國會於2013年2月28日提出「線上禁止追蹤法草案」(Do-Not-Track Online Act of 2013) 進行審議。「線上禁止追蹤法草案」草案乃要求聯邦貿易委員會(FTC),就透過個人線上活動追蹤,以蒐集、使用個人資料之行為態樣,進行管制。該管制模式謹據以要求如下:(1)被搜集資料個人應收到簡單、明確、並載明資料使用目的之通知(clear, conspicuous and accurate notice and use of such information),而個人就該通知應予明白之同意(affirmative consent);(2)FTC未來在訂定標準規範時,應(shall)考量所被搜集之資料,是否在匿(隱)名基礎上處理之,遂該資料無法有效被聯結(指認)到特定個人或裝置上;此外,消費者當享有資料不被蒐集的權利(expressed preference by individual not to have personal information collected)。該草案並就違反之個人,設定最高15,000,000美元損害賠償規定。

資通安全法律案例宣導彙編 第1輯

OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

TOP