瑞士為縮短新創公司走向市場時間,成立種子資金投資競賽(Venture Kick),透過階段競賽方式,擇選具發展潛力之高科技創新創業團隊,並提供國內外創業輔導資源與資金,促成瑞士創新成果產業化運用之目標。Venture Kick共分為三個階段的競賽:第一階段係針對創新構想(business idea)作評分,每月選出8個團隊作創新構想的報告,另從中取4個團隊進入第二階段,並獲取獎金1萬元;第二階段會就進一步的商業模式作評選,包括經營策略、目標客戶以及策略夥伴等,進入第二階段的3個月內,各團隊藉由專家指導,發展適合之商業模式與經營策略,另再選出一半的團隊進入第三階段評選和獲取獎金2萬,最後階段之評選,擇以協助競賽團隊設立新創公司為目標,競賽團隊應於進入第三階段6個月後完成進入市場準備與提出完整商業營運計畫,最後會從2個團隊中選出1個具發展潛力之競賽團隊給予10萬元之創業基金。截至目前,受到贊助新創公司高達250家,總金額超過1500萬瑞士法郎
本文為「經濟部產業技術司科技專案成果」
日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論: 一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。 AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。 二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。
歐盟研究:應重視改善基因改造產品管理規範的區域性差異基因改造作物的商業化普遍在各地受到管理規範,如今全球即將步入上市階段的基因改造作物與日俱增,相反地在歐洲地區相關核准作業程序卻遲滯緩慢。這主要起因於各國家地區對於基因改造產品所採取管理方式與法律規範各有不同,相關產品的安全評估標準及法律審查程序也有所差異,因此目前基因改造作物產品雖然在同一時間內申請上市核准,之後仍難以取得全球各國家地區之核准。 今(2009)年7月,歐盟所屬之研究單位Joint Research Centre(JRC)指出基因改造作物產品的非同期性核准(asynchronous approval)將為全球農業市場交易帶來相關一連串的問題。根據JRC研究,某些國家地區如歐盟,採取全面禁止基因改造作物(“zero-tolerance policy”),立法禁止核准基因改造作物以進口商品之名義輸入,即便某些基因改造作物已在本國境內允許種植並且將其歸類為安全,但任何含有上述微量基因改造作物成分之農產品,也同樣遭歐盟禁止輸入,歐盟全面禁止基因改造作物產品之作法形同架設了一道產品交易的禁令。以過往經驗為例,因歐盟全面禁止基因改造作物之管理方式,已導致產品無法輸入,大幅影響該地區的動物飼料。 隨著全球基因改造作物種植面積及商業使用量增加的發展趨勢,未來恐將難以在全球市場中取得毫無添加基因改造作物的產品,尤其當這些基因改造作物是允許在其他國家境內種植,但卻未獲歐盟批准者。因此,相對於未添加基因改造作物產品之價格將因此上揚,而仰賴動物飼料進口輸入的歐盟則應多加關切此事。 為能降低含有微量基因改造作物商品所帶來的衝擊,JRC歸納「全球基因改造作物商業化流程研討會」中專家學者之意見,建議歐盟宜再次考量全面禁止政策之必要,或改以容許低含量基因改造作物產品之上市標準予以取代;其他建議則包括簡化核准程序,設立各國互相認可的基因改造作物風險評估方法,以及彈性落實國際食品標準委員會相關之規定,以期能減少日後基因改造作物產品非同期性核准之影響。
美國國防部「人工智慧國防運用倫理準則」美國國防部(Department of Defense)於2020年2月採納由美國國防創新委員會(Defense Innovation Board, DIB)所提出之「人工智慧國防運用倫理準則(AI Principles: Recommendations on the Ethical Use of Artificial Intelligence by the Department of Defense)」,以衡平倫理與人工智慧於國防帶來之增益。 美國國防創新委員會為美國聯邦政府下之獨立委員會,設置目的在於依美國新創科技,提供意見予美國國防部,與美國國防部並無隸屬關係。有鑑於人工智慧之運用範疇日益增廣,美國國防創新委員會遂提出旨揭「人工智慧國防運用倫理準則」,以因應人工智慧於國防之應用所產生之問題。 倫理準則適用於「戰爭或非戰爭用途之人工智慧之設計以及應用」,對於「人工智慧」之定義,倫理準認為人工智慧並無精確之範疇,只要「對於資訊有所處理並旨在達到所賦予任務之資訊系統」,皆為本準則下之人工智慧。倫理準則指出,「人工智慧」與美國國防部3000.09指令下之「自動化武器系統(Autonomous Weapon System)」之定義不同,但有可能重疊,而所謂「自動化武器系統」為「一經人類選擇啟動,即可在無人類監督之情形下,自動針對目標進行鎖定或進行攻擊之自動化武器系統」。 美國國防創新委員會表示,該準則旨在切合美國既有憲法、法律、國際公約之傳統標準下,融入現代化對於人工智慧之要求,如國際公約中之戰爭法(Law of War)即為本準則之傳統標準之一,舉例而言,如人工智慧被裝置於武器中,其設計及應用應符合最小傷亡原則、避免傷及無辜原則等。 除此之外,準則亦包含以下現代化對於人工智慧之要求:(1)人類對於人工智慧系統之設計、應用以及使用應善盡判斷以及注意義務,且人類應該對於人工智慧系統因瑕疵所帶來之傷害負擔最終責任;(2)對於目標之選擇或分類,應維持公平性,且不得有歧視性;(3)對於人工智慧之設計、應用以及使用,應有明確之工程標準以及資料保存程序,此一工程標準以及資料保存程序應為一般具有專業知識之工程人員可據以理解、分析、追蹤問題所在並加以改善;(4)「戰爭或非戰爭用途之人工智慧」應有明確之應用領域,且完善之檢測、維修,應適用於該人工智慧之全部生命週期。
美聯社(AP)在紐約對VeriSign提出侵權訴訟以禁止其使用AP所有之新聞報導內容美聯社(The Associated Press, AP)於十月九日在「南紐約聯邦地方法院」(SDNY),正式地向世界權威的數碼核證服務供應商VeriSign及其子公司Moreover Technologies提出違反著作權與商標權等侵權訴訟。根據AP向法院所提出的起訴狀中主張七項訴因,內容以被告違反聯邦著作權法及紐約州的商標法等相關法律規定,其中包含VeriSign及Moreover Technologies製造出與AP的虛偽聯結( False Association)而違反了商標法案-Lanham Act等。AP在起訴狀中也主張因被告上開侵權行為及非法侵入AP的電腦主機而違反紐約州「非法侵入他人動產罪」(Trespass to Chattels)之行為,故同時請求聯邦法院准予核發永久禁止令,以禁止被告使用AP所有的新聞報導內容並刪除被告公司電腦內所有屬於AP所有之著作財產權。 本案被告之Moreover Technologies最早標榜透過網路新聞的搜集、分類及傳送的方式,成為提供即時新聞、當前知識及商業資訊之先驅,其在該公司的網頁上使用AP所有超過兩萬五千筆的新聞內容。而同案被告VeriSign,於二○○五年十月份以約略美金三千萬的現金將Moreover Technologies合併。AP的總裁暨執行長Tom Curley表示,任何未得AP之授權同意而自行搭載(Free Riding)使用AP所有之新聞內容之人,其行為已對新聞記者的著作財產權造成莫大的損失,AP從成立至今,已有三十二各新聞記者因公殉職。基於上開理由,AP向法院請求被告因侵權所獲得之利益及懲罰性損害賠償。