美國國家創新與創業諮詢委員會(National Advisory Council on Innovation and Entrepreneurship, NACIE)於2024年2月8日發布「透過創業提高競爭力:美國創新策略」(Competitiveness Through Entrepreneurship: A Strategy For U.S. Innovation)報告,其確定改善與協助美國創業精神之三大關鍵領域,並提出十項建議,敦促政府消除創業活動障礙,增加新創公司獲得人才、資金之機會。
NACIE由企業家、創新者、投資人、學者與經濟發展領導者組成。由商務部長責成其確定如何使美國繼續成為改變典範之創新來源、以及將創新推向市場之泉源。NACIE於此報告中所確認之三大關鍵領域與十項建議之內涵簡述如下:
(1)關鍵領域1:發展未來產業(Growing the Industries of the Future)
美國雖於能源、自動化、人工智慧、量子科學與生物科技等創新領域取得商業上之成功,但對於產業創新仍存有四大威脅,包括國家機關間之協調、研發投資之持續減少、大學研發產品商業化受阻與境外製造之風險。
建議1:
成立國家創新委員會(National Innovation Council),由科學技術政策辦公室主任(Director of the Office of Science & Technology Policy)擔任主席,成員包括相關內閣秘書、國家科學基金會(NSF)主任、美國專利商標局(USPTO)局長與美國首席技術長(Chief Technology Officer, CTO),倡導全國創新與創業並協調相關聯邦政府活動。
建議2:
恢復與擴大國家投資,使創新登月計畫成為可能—大幅增加聯邦對關鍵技術之研發投資,使美國在未來成長產業中發揮領導作用。
建議3:
啟動國家創新加速器網路(National Innovation Accelerator Network, NIAN)—一個由加速器、輔導、投資計畫與創業支持組織組成之虛擬“網路中之網路”(“network of networks”),旨在大規模增強社會各方面之包容性創業能力。
建議4:
為聯邦資助之研究與開發提供智慧財產權激勵措施;制定政策與激勵措施,促進聯邦政府資助之創新廣泛傳播與商業化;並促進將聯邦資助創新進行國內製造。
建議5:
積極與創新者、企業家與資助者合作,確保其擁有足夠之智慧財產權與網路安全教育與資源來保護其之想法與業務,並接受培訓以能夠識別與防止外國公司或國家潛在之智慧財產權盜竊。
(2)關鍵領域2:獲取資本(Accessing Capital)
美國前七大上市公司全部皆由創投所支持,於1990至2020年間,相較於私部門之雇用率上升40%,同一時期由創投支持之公司雇用率成長達960%;美國創投規模亦居於全球之冠,甚至某些城市之創投規模已超過其他國家,如2021年紐約之創投規模即相當於印度全國之規模。惟美國創投之問題在於投資機會未能平等,如女性、有色人種、非都會區較難獲得創投投資。
建議6:
透過制定新聯邦計畫,擴大企業家之成長資金管道,以支持各地更多企業家,特別是通常未受足夠服務之企業家。
建議7:
透過擴大直接資助與基於激勵(incentive-based)之聯邦計畫,增加資金並為新興基金經理提供機會,以便於全國更多處皆能有更多具有各種人口背景與專業之投資人。
建議8:
向投資於研發、種子輪或A 輪融資新創公司、女性與少數族群擁有之新創公司、以及保護與授權智慧財產權之公司與個人提供年度稅收抵免與激勵措施。
(3)關鍵領域3:培養創業人才(Developing Entrepreneurial Talent)
人才對於創業生態系之完整建構至為重要,美國一半以上之10億美元公司由移民創辦,三分之二之獨角獸公司由移民創辦或共同創辦,這些公司之創辦人中有25%是國際學生。
建議9:
透過提供導師、支持服務資金以及幫助吸引與培養關鍵人才,全面支持新高潛力企業家,旨在增加美國新創公司之數量與影響力。
建議10:
有系統地提供支持創業之工具與資源,打破任何人、任何地方之障礙,為新創業企業做出貢獻,以便美國未來能更快地創新。
本文為「經濟部產業技術司科技專案成果」
美國國會議員Markey與Rockefeller於2014年2月提出S. 2025:「資料仲介商有責與透明法草案」(Data Broker Accountability and Transparency Act),以促進對於消費者保護,與資料仲介產業發展間的平衡。該草案預將授權「美國聯邦貿易委員會」與各州據以監督與執行。 該草案對「資料仲介商」(以下簡稱Data Broker)加以定義為係以銷售、提供第三方近用為目的,而蒐集、組合或維護非其客戶或員工之個人相關資料的商業實體;更進一步的禁止Data Broker以假造、虛構、詐欺性的陳述或聲明的方式(包括提供明知或應知悉為偽造、假造、虛構、或詐欺性陳述或聲明的文件予以他人),自資料當事人取得或使其揭露個人相關資料。 該草案亦要求Data Broker建置及提供相關程序、方式與管道,以供資料當事人進行下列事項: 1.檢視與確認其個人相關資料(除非為辨識個人為目的的姓名或住址)正確性(但有其他排除規定)。 2.更正「公共紀錄資訊」(Public Record Information)與「非公共資訊」(Non-public Information) 3.表達其個人相關資料被使用的時機與偏好。例如在符合一定條件下,資料當事人得以「選擇退出」(Opt Out)其資料被Data Broker蒐集或以行銷為目的而販售。 於此同時,加州參議院亦已於2014年5月通過S.B. 1348:Data Brokers的草案,該草案要求資料當事人擁有檢視Data Broker所持有的資料,並得要求其於刪除提出後10天內永久刪除;當資料一經刪除,該Data Broker不得再行轉發或是將其資料販售給第三人。加州參議院並提案,該法案通過後將涵蓋適用至2015年1月1日所蒐集的資料,且個人於Data Broker每次違反時得提出$1,000美元的損害賠償訴訟(律師費外加)。雖然該草案受到隱私權保護團體的支持,卻受到加州商會(California Chamber of Commerce)與直銷聯盟(Direct Marketing Association)的反對。加州在Data Broker的立法規範上是否能超前聯邦的進度,讓我們拭目以待吧。
歐盟執委會公布《可信賴的AI政策及投資建議》歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。 該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。 在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。
中國大陸財政部及科技部印發《國家重點研發計畫資金管理辦法》於2016年12月30日,中國大陸財政部及科技部為規範國家重點研發計畫管理,切實提高資金使用效益聯合發佈了《國家重點研發計畫資金管理辦法》。 該計畫以支援解決重大科技問題為目標,以“優化資源配置、完善管理機制、提高資金效益”為重點,辦法全文共8章57條,根據國家重點研發計畫特點,從預算編制到執行、結題驗收到監督檢查,針對全過程提出了資金管理的要求,明確《辦法》制定的目的和依據、重點研發計畫資金支援方向、管理使用原則和適用範圍,就重點專項概預算管理、專案資金開支範圍、預算編制與審批、預算執行與調劑、財務驗收、監督檢查等具體內容和流程、職責做了明確規定。 與原科技計畫資金管理辦法相比,《辦法》主要有以下變化: 1.建立了適應重點研發計畫管理特點的概預算管理模式。 2.遵循科研活動規律,落實“放、管、服”改革。適應科研活動的不確定性的特點,《辦法》堅持簡政放權,簡化預算編制,下放預算調劑許可權。 3.突出以人為本,注重調動廣大科研人員積極性。 為推動辦法有效落實,財政部及科技部並要求相關部門、專案承擔單位需要共同做好以下工作: 1.相關主管部門應當督促所屬承擔單位加強內控制度和監督制約機制建設、落實重點專項項目資金管理責任。 2.財政部、科技部將組織開展宣傳培訓,指導各有關部門和單位開展學習,全面提高對《辦法》的認識和理解,為政策執行到位提供保障。 3.科技部、財政部將通過專項檢查、專項審計、年度報告分析、舉報核查、績效評價等方式,對專業機構、專案承擔單位貫徹落實《辦法》情況進行監督檢查或抽查。