成功的物聯網(IOT)平台生態系統取決於多種因素,2017年4月3日歐盟智慧聯網研發推動平台( European Research Cluster on the Internet of Things)在物聯網活動平台分析(Analysis on IoT Platforms Adoption Activities)中提出六個成功的重要因素:
本文為「經濟部產業技術司科技專案成果」
美國參議院於2021年8月12日提出全新《產業融資公司法案》(Industrial Finance Corporation Act),擬授權成立美國產業金融公司(Industrial Finance of the U.S., IFCUS)投資半導體、量子運算、人工智慧、網路安全、生物科技等高科技領域,旨在促進國內製造業創新和打造良好就業機會。 本法案首先點出國內在關鍵技術供應鏈上所面臨的困境,包括「國內製造商缺乏足夠的資金管道致技術工作外包,影響到美國在關鍵技術(如半導體和5G通訊硬體)生產的主導地位」、「目前美國的創新模式較依賴私人資本協助政府將研究成果產品化,然因私人資本通常會傾向尋求短期投資回報,與新興技術領域較需採長期投資發展策略有別」,以及「官方捐款計劃跟不上創新步伐使得納稅人須承擔技術創新的高風險,但卻無法獲得相應的高回報」。接著,法案提到為解決前述困境,擬藉由法案授權成立美國國有企業產業金融公司(IFCUS),以投資方式協助與經濟國家安全相關重要產業之發展,並幫助相關產業利用額外私人資金,使納稅人在承擔高風險之際,亦有機會獲取相應的高回報。 依據《產業融資公司法案》所成立之國有企業產業金融公司(IFCUS),則將支持關鍵產業彈性供應鏈、美國製造業經濟發展及就業機會、先進技術商業化、中小企業廠商與資金門檻較低廠商、易受系統性投資不足與不公平產業政策等。在具體運作模式上,IFCUS將先與私人企業合作,利用法案所授權的500億美元資本進行融資,並由IFCUS發行及提供擔保貸款、購買股權、發行債券、收購資產、創建投資設施和企業基金及投資證券化等,藉以創造更多資本額。並鑒於IFCUS為一國營單位,相對較有能力保持優良的社會環境和勞動標準,創造全國就業機會、減少環境危害及對公眾與國會負責,同時確保企業決策係為納稅人服務。最後,透過IFCUS與政府研究機構協調,建立保障措施,以及提供私人資本和政府計畫補助,鼓勵天使投資以降低市場競爭影響。簡而言之,即希望憑藉IFCUS國有企業之設立,為美國高科技製造業提供策略性投資、產經政策等具體援助,藉以強化供應鏈韌性。
美國FDA將整合區塊鏈等新興技術於電子協同運作系統之開發,以提升藥物供應鏈的安全性依據2013年11月27日通過之藥物供應鏈安全法(Drug Supply Chain Security Act, DSCSA),美國食品與藥物管理局(US Food and Drug Administration, FDA)於2019年2月7日公布新的領航計畫(Pilot Program)。此計畫主要的目標在於發展電子協同運作系統(electronic, interoperable system)以降低不合規範的藥物於市場流通的可能性,並提升患者的用藥安全。 此運作系統預計於2023年開始正式實施,其主要的功能包含辨識(identify)或追蹤處方藥物(prescription drugs)於供應鏈中的流通狀態,以及排除非法藥物進入供應鏈。於後者的情形,此運作系統將同時協助相關主管機關在非法藥物於市場中流通時迅速反應。FDA進一步指出,為達到這些目的,將引入區塊鏈(blockchain)等已使用在全球食品供應鏈(global food supply chains)的管理技術,以促進系統運作過程中的可追蹤性(traceability)及準確性。 此計畫於2019年2月8日到3月11日間接受加入申請,FDA鼓勵供應鏈中的相關人員,包含製造商(manufacturers)、再包裝商(repackagers)及其他利害關係人(other stakeholders)加入並試行計畫中開發的運作系統等技術,以加強產品使用狀況的管理。此外,FDA未來將持續公布相關的指引草案,如藥物辨識指標(product identifiers)等,以提升產業利用性及藥物使用的安全性。
拜登政府宣布採取促進負責任AI創新之新行動,以保護美國人民權利與安全拜登政府於2023年5月4日宣布將採取促進負責任AI創新之新行動,表示公司於部署或公開其產品前,應致力於降低AI風險,並強調風險管理與保障措施的重要性,以防止AI對個人與社會造成潛在危害。此外,拜登總統於2月簽署「透過聯邦政府進一步推動種族平等和支持弱勢群體」行政命令(Executive Order on Further Advancing Racial Equity and Support for Underserved Communities Through The Federal Government),指示聯邦政府機關在設計和使用AI等新技術時,應避免偏見,並保護公眾免受演算法歧視。促進負責任AI創新之新行動包括: 一、投資負責任AI的研發 美國國家科學基金會(National Science Foundation)宣布撥款1.4億美元以啟動7個新的國家AI研究所,未來全美將有25個國家級AI研究所。除有助於促進公私部門之間合作外,將強化AI研發基礎設施、支持多元化AI勞動力發展,及推動氣候、農業、能源、公共衛生、教育與資安等關鍵領域之突破。 二、公開評估現有的生成式AI系統(generative AI systems) Anthropic、Google、Hugging Face、微軟、NVIDIA、OpenAI和Stability AI等領先AI開發商將參與AI系統獨立公開評估,以評估其模型是否符合AI權利法案藍圖(Blueprint for an AI Bill of Rights),及AI風險管理框架(AI Risk Management Framework)所提出之原則與實踐,並使企業及開發人員能就所發現問題,進一步採取解決措施。 三、提出政策引導聯邦政府減輕AI風險及提升AI利用機會 美國行政管理預算局(Office of Management and Budget)宣布,將於2023年夏季發布有關聯邦政府機關各部門使用AI系統之政策指引草案,並徵詢公眾意見。
美國「人工智慧應用管制指引」美國白宮科學與技術政策辦公室(The White House’s Office of Science and Technology Policy , OSTP)於2020年1月9日發布「人工智慧應用管制指引」(Guidance for Regulation of Artificial Intelligence Application),為美國政府機關起草人工智慧規範並進行管制時提供指引,該指引內要求各機關之規範應遵循以下10項人工智慧原則: 一.公眾對AI之信任:政府對AI之管制或其他措施應促進AI之可靠性、健全性,且於應用上應具備可信性。 二.公共參與:政府應提供機會讓利害關係人參與AI管制規範立法程序。 三.科學實證與資訊品質:科學實證與資訊品質:政府機關發展AI之相關技術資訊,應透過公開且可驗證之方式提供給大眾參考,以提高大眾對AI之信任與協助政策制定。 四.風險分析與管理:應採取以風險為基礎之分析評估方法,確認哪些風險係可接受之風險,或那些風險代表無法接受之損害或所失利易大於預期利益。 五.利益與成本:政府於擬定相關規範時,應小心評估AI對於整體社會之利益,與預期外之效果。 六.彈性:法規應持續滾動檢視與調修以因應AI之創新應用。 七.公平且無歧視:政府應針對AI之應用與決策,考量公平與無歧視相關議題。 八.揭露與透明:透明度與揭露程序之建立可提升公眾對AI應用之信任。 九.安全:政府應特別注意AI系統內所儲存或傳輸資訊之安全與相關安全維護控制措施。 十.跨機關合作:政府各部會或機構間應相互合作與分享經驗,以確保AI相關政策之一致性與可預測性。