2014年7月24日美國眾議院金融服務資本市場附屬委員會(House of Representatives Committee on Financial Services’ Capital Markets Subcommittee)針對新創企業啟動法(Jumpstart Our Business Startups Act,簡稱JOBS法)舉行聽證,由證券交易委員會(United States Securities and Exchange Commission,簡稱SEC)企業融資處基思‧希金斯(Keith Higgins)處長(Director of the Division of Corporation Finance)向委員會說明。
各界對於JOBS法相當重視,委員們於聽證會中提出相關疑慮,處長回應包括:
希金斯處長雖就部分疑慮進行解答,然後續仍須觀察SEC將如何完成JOBS法相關規範之制定與執行狀況。
歐盟執委會(European Commission, EC)於2022年7月5日通過「新歐洲創新議程」(New European Innovation Agenda,下稱創新議程),藉由引領創新,特別是在「深度技術」(Deep Tech),例如AI、量子科學、光子技術等領域之創新,強化歐洲在綠色轉型和數位轉型的中心角色,並為氣候變遷及網路威脅等迫切的社會問題,提供創新的解決方案,以減少能源依賴、改善民眾健康,並繁榮歐洲經濟。創新議程包括以下5項旗艦項目: (1)資助新創公司(start-ups):使歐洲私人機構及其他私人投資者更願意投資於「深度技術」之新創公司。除此之外,簡化上市規則,使公司上市成本減少,以增加公司上市意願,更易於向公眾募集資金。 (2)重視實驗場域及創新採購:讓創新的企業可藉由「監理沙盒」(Regulatory Sandbox)等實驗場域(experimentation spaces)驗證其概念,政府則加強對創新產品和服務的公共採購(public procurement),促進創新研發。 (3)打造歐洲創新生態系(European Innovation Ecosystems):支持包括低度開發地區在內的區域,建立多個「區域創新谷」(regional innovation valleys),以強化歐洲創新者間的連結,並促進會員國投入至少100億歐元於各區域創新谷包含「深度技術」在內的創新專案。 (4)育才、攬才及留才:確保「深度技術」的人才能來到歐盟國家,並在歐盟國家間流動及發展,當中包括針對新創公司的創新實習生計畫、幫助新創公司尋找非歐盟人才的歐盟人才資料庫(talent pool)計畫、女性創業和領導計畫、新創公司員工有認股權(stock option)等。 (5)優化政策制定之流程及架構,促進歐盟內部協調一致:藉由開發可供各國比對的資料集(data set),以及對於新創公司設立階段(start-up)及成長階段(scale-up)之共通定義,提升並強化政策的傳播及落實,並確保在歐洲創新理事會論壇(European Innovation Council)有更好的政策協調。
日本修訂醫藥品強化綜合戰略日本內閣於2017年6月閣議決定「經濟財政營運與改革基本方針2017」,設定醫藥品項倍增目標,並計畫檢討在2020年9月前達成學名藥使用率80%以上之推動政策。基於上開方針,為實現「安定供應國民優良品質醫藥品」、「醫療費效率化」、「產業競爭力強化」等目的,厚生勞動省於2017年12月22日修訂「醫藥品產業強化綜合戰略~著眼全球展開之新藥研發」,希望日本醫藥品產業能從依賴「長期收載品」之商業模式,轉向具備更高新藥開發能力之結構。 「醫藥品產業強化綜合戰略」主要修訂內容如下︰(1)改善日本技術、相關知識等研究開發環境︰如推動癌症基因醫療、資料庫整備、利用AI進行醫藥品研究開發等;(2)透過藥事規制改革減低醫療成本和提高效率︰如善用附條件認可制度,以及先驅審查制度之制度化等;(3)醫藥品生產、製造等基礎設施之整備︰如制定相應之新技術品質管理等規範;(4)適當評價之環境、平台整備︰如各種臨床指引之整備;(5)向海外推廣日本製造之醫藥品︰如制定國際法規調適戰略等;(6)促進新藥開發業界之新陳代謝和全球化創新企業︰支援新創企業之人才育成、金融市場之整備等;(7)改善醫療用醫藥品之流通︰如制定流通改善指引等。
歐盟執委會公布《可信賴的AI政策及投資建議》歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。 該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。 在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。
德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。 諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。 綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。