美國國家創新與創業諮詢委員會(National Advisory Council on Innovation and Entrepreneurship, NACIE)於2024年2月8日發布「透過創業提高競爭力:美國創新策略」(Competitiveness Through Entrepreneurship: A Strategy For U.S. Innovation)報告,其確定改善與協助美國創業精神之三大關鍵領域,並提出十項建議,敦促政府消除創業活動障礙,增加新創公司獲得人才、資金之機會。
NACIE由企業家、創新者、投資人、學者與經濟發展領導者組成。由商務部長責成其確定如何使美國繼續成為改變典範之創新來源、以及將創新推向市場之泉源。NACIE於此報告中所確認之三大關鍵領域與十項建議之內涵簡述如下:
(1)關鍵領域1:發展未來產業(Growing the Industries of the Future)
美國雖於能源、自動化、人工智慧、量子科學與生物科技等創新領域取得商業上之成功,但對於產業創新仍存有四大威脅,包括國家機關間之協調、研發投資之持續減少、大學研發產品商業化受阻與境外製造之風險。
建議1:
成立國家創新委員會(National Innovation Council),由科學技術政策辦公室主任(Director of the Office of Science & Technology Policy)擔任主席,成員包括相關內閣秘書、國家科學基金會(NSF)主任、美國專利商標局(USPTO)局長與美國首席技術長(Chief Technology Officer, CTO),倡導全國創新與創業並協調相關聯邦政府活動。
建議2:
恢復與擴大國家投資,使創新登月計畫成為可能—大幅增加聯邦對關鍵技術之研發投資,使美國在未來成長產業中發揮領導作用。
建議3:
啟動國家創新加速器網路(National Innovation Accelerator Network, NIAN)—一個由加速器、輔導、投資計畫與創業支持組織組成之虛擬“網路中之網路”(“network of networks”),旨在大規模增強社會各方面之包容性創業能力。
建議4:
為聯邦資助之研究與開發提供智慧財產權激勵措施;制定政策與激勵措施,促進聯邦政府資助之創新廣泛傳播與商業化;並促進將聯邦資助創新進行國內製造。
建議5:
積極與創新者、企業家與資助者合作,確保其擁有足夠之智慧財產權與網路安全教育與資源來保護其之想法與業務,並接受培訓以能夠識別與防止外國公司或國家潛在之智慧財產權盜竊。
(2)關鍵領域2:獲取資本(Accessing Capital)
美國前七大上市公司全部皆由創投所支持,於1990至2020年間,相較於私部門之雇用率上升40%,同一時期由創投支持之公司雇用率成長達960%;美國創投規模亦居於全球之冠,甚至某些城市之創投規模已超過其他國家,如2021年紐約之創投規模即相當於印度全國之規模。惟美國創投之問題在於投資機會未能平等,如女性、有色人種、非都會區較難獲得創投投資。
建議6:
透過制定新聯邦計畫,擴大企業家之成長資金管道,以支持各地更多企業家,特別是通常未受足夠服務之企業家。
建議7:
透過擴大直接資助與基於激勵(incentive-based)之聯邦計畫,增加資金並為新興基金經理提供機會,以便於全國更多處皆能有更多具有各種人口背景與專業之投資人。
建議8:
向投資於研發、種子輪或A 輪融資新創公司、女性與少數族群擁有之新創公司、以及保護與授權智慧財產權之公司與個人提供年度稅收抵免與激勵措施。
(3)關鍵領域3:培養創業人才(Developing Entrepreneurial Talent)
人才對於創業生態系之完整建構至為重要,美國一半以上之10億美元公司由移民創辦,三分之二之獨角獸公司由移民創辦或共同創辦,這些公司之創辦人中有25%是國際學生。
建議9:
透過提供導師、支持服務資金以及幫助吸引與培養關鍵人才,全面支持新高潛力企業家,旨在增加美國新創公司之數量與影響力。
建議10:
有系統地提供支持創業之工具與資源,打破任何人、任何地方之障礙,為新創業企業做出貢獻,以便美國未來能更快地創新。
本文為「經濟部產業技術司科技專案成果」
2016年3月法國個人資料保護主管機關「國家資訊自由委員會」(Commission Nationale de l'Informatique et des Libertés, CNIL)要求Google等搜尋引擎公司,刪除網路搜尋所出現之歐洲公民姓名。此舉參考2014年歐洲法院(European Court of Justice)對於Mario Costeja González一案(C 131/12)所作裁決,Google公司和Google西班牙公司須遵守西班牙資料保護局(Agencia Española de Protección de Datos, AEPD)要求,移除出現原告姓名之搜尋結果。Google表示不服,並上訴法國最高行政法院(Conseil d'État)。 於本案中Google提出兩點主張:第一,CNIL對於被遺忘權(right to be forgotten)適用範圍過大,聲稱所搜尋到之姓名等資訊,屬於事實或來自新聞報導和政府網站之合法公開網站資訊,認為CNIL將隔絕原本在法國可為其他人所知之合法資訊;第二,Google主張向來遵守各國個人資料保護政策,將遵照CNIL要求,但僅限刪除在法國網域內之歐洲公民姓名,無法及於全球網域,除非法國政策已為全歐盟或全球所適用,不然法國個人資料保護審查制度不能延伸至其他國家。 對於網路公民權利推廣不遺餘力之「電子前線基金會」(Electronic Frontier Foundation, EFF)認為CNIL對法國公民資料保護之特別要求,將對Google造成損害。
何謂不實施專利實體(Non-Practicing Entity,NPE)?所謂NPE依據現行學術界對於NPE的內涵認知,認為NPE係指不從事任何商品生產,亦不從事任何研發工作者。而在現行NPE的運作態樣上,其可包含兩種類型,其一,為大學和研究機構(例如:公、私立實驗室),其主要係由校內教職員或研究人員進行基礎性研究,並將研究成果授權予其他個人或組織來運用,其本身並不從事任何商品生產者;其二,係由個人或是中小型組織/團體以購買專利的方式來獲得專利權,並藉由專利權本質上的排他性特徵,以訴訟方式來控告侵害其專利權的成功商品製造者。後者,英文稱其為『Patent Troll』,中文可譯為『專利巨人』、『專利蟑螂』、『專利流氓』、『專利地痞』或『專利恐怖分子』等。其主要特徵有三項,首先,此類NPE係藉由專利取得的方式,向潛在或可能的專利侵權者(alleged infringers)收取專利授權金;第二,此類NPE並不進行任何研發活動,其亦不就其所擁有的專利來從事商品化活動或發展新型技術;第三,此類NPE投機性地等待商品製造者(industry participants)在投入不可回復鉅額投資後,始對該商品製造者行使專利侵權主張。
何謂「國立研究開發法人」?國立研究開發法人為日本法制度下三種獨立行政法人類型的其中之一(其餘兩種為中期目標管理法人、與行政執行法人),任務乃是獨立於國家,發揮一定程度之自主性與自律性,從事在國民生活或社會經濟安定性等公益目的上所必要,但不須由國家為主體來執行的科學技術之實驗、研究與開發,並且這些科技研發業務,係基於具備一定中長期政策目標之計畫而進行,目的在於最大限度地確保得以提升國家科技水準、同時攸關經濟健全發展及其他公益的研發成果,並被期待產出得參與國際競爭的世界頂尖水準之新創科技,作為國家戰略的一環,同時專注於基礎科學與國家核心技術的研發。但在國立研究開發法人中,其所屬職員的身分並非公務員。 現在日本共有將近30個獨立研究開發法人,如日本醫療研究開發機構、森林研究‧整備機構‧新能源‧產業技術總合開發機構(NEDO)、國立環境研究所等。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。