美國新創企業啟動法(JOBS Act)聽證進展

  2014年7月24日美國眾議院金融服務資本市場附屬委員會(House of Representatives Committee on Financial Services’ Capital Markets Subcommittee)針對新創企業啟動法(Jumpstart Our Business Startups Act,簡稱JOBS法)舉行聽證,由證券交易委員會(United States Securities and Exchange Commission,簡稱SEC)企業融資處基思‧希金斯(Keith Higgins)處長(Director of the Division of Corporation Finance)向委員會說明。

  各界對於JOBS法相當重視,委員們於聽證會中提出相關疑慮,處長回應包括:

  1. 期望今年底提出JOBS法所漏未規定之「存款與貸款」(savings and loans)部分之補救計畫(proposal)。
  2. 關於2013年SEC舉行之小型企業資本形成之企業論壇(Business Forum on Small Business Capital Formation)」之建議,例如創業者仰賴朋友與家人資助,仍應發行群眾募資證券(crowd-funding securities)給予此類非合格投資者(non-accredited investor)等,將部分建議納入考慮。
  3. SEC正考慮將JOBS法原設定50萬美元的籌資門檻提高,以因應門檻(過低)對於群眾募資可能之負面影響。
  4. 本法提供股票初次上市的快速入口程序(onramp process),及快速成長公司(emerging growth companies)發行報告給潛在投資人,其執行緩慢原因在於投資人之顧慮,但相信此程序將經常被運用。

  希金斯處長雖就部分疑慮進行解答,然後續仍須觀察SEC將如何完成JOBS法相關規範之制定與執行狀況。

相關連結
※ 美國新創企業啟動法(JOBS Act)聽證進展, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6620&no=57&tp=1 (最後瀏覽日:2026/01/24)
引註此篇文章
你可能還會想看
澳洲國家交通委員會針對駕駛法規之修正進行公眾諮詢,聚焦自駕系統實體法律義務

  澳洲國家交通委員會(National Transport Commission, NTC)於2017年10月3日提出「修正駕駛法律以支持自動駕駛車輛(Changing driving laws to support automated vehicles)」討論文件,向相關政府機關與業界徵詢修正駕駛法規之意見。此文件目的在於探討法規改革選項,並釐清目前針對駕駛人與駕駛行為法規對於自駕車之適用,並試圖為自動駕駛系統實體(automated driving system entities, ADSEs)建立法律義務。文件中並指出改革上應注意以下議題: 目前車輛法規皆以人類駕駛為前提; 自動駕駛系統並不具有法律人格,無法為其行為負法律責任; 目前的法律並未提供法律實體之定義或規範(即自動駕駛系統實體ADSEs)來為自動駕駛系統行動負責; 目前有些法律上人類駕駛應負之義務,無法直接於自動駕駛時由ADSEs負擔; 車輛之安全義務於自動駕駛時,可能需由非駕駛之他人執行; 法律中並未定義自動駕駛系統車輛的「控制」與「恰當控制」; 目前沒有規範何時人類應有義務將駕駛控制權力自自動駕駛系統轉移回來,來確保人類駕駛保持足夠之警覺性; 目前的遵循與實施規範可能不足以確保自動駕駛系統的安全運作。   NTC並提出建議應定義自動駕駛系統之法律實體,重新規範人類與自動駕駛系統法律實體間的義務。澳洲國家交通委員會將進一步將諮詢結果與法律改革選項於2018年5月提供給澳洲交通部。

美國白宮對具危險性的生物研究提出新規範

  美國白宮為避免由聯邦補助的生物科技研究案,因研究涉及具危險性生物,而不經意製造出生化武器,繼此於2014年9月24日由國家衛生研究院(National Institutes of Health,NIH)和白宮科技政策辦公室(White House Office of Science and Technology)共同提出新規範,即「美國政府對生物科學雙重用途研究與考量的機構監督政策」(United States Government Policy for Institutional Oversight of Life Sciences Dual Use Research of Concern),旨在加強由聯邦預算補助的生物雙重用途研究(Dual Use of Research)安全性。   前述生物科技研究中的生物雙重用途研究,意指以增進公共衛生、國家安全、農業、環境等為主旨的生命科學研究之外,尚有其他具殺傷力或致命性的合法研究,例如合成病毒、除草劑等。早於2013年,美國白宮即已開始實施「美國政府對生物科學雙重用途研究與考量的監督政策」(United States Government Policy for Oversight of Life Sciences Dual Use Research of Concern),惟本次另以機構為主要規範對象。而作成新規範之重點分述為三如下: 1.原先以補助單位(通常為國家衛生研究院),為具危險性生物研究案為監督、責成單位,現將該監督責任歸屬移轉至取得相關補助的科學家、大學或研究機構。 2.從事相關具危險性生物研究之科學家,必須通報其所屬機構,並且須召開審查委員會評估相關風險,亦須通知聯邦層級的補助單位。此外,該科學家與其機構必須提交一份風險防範之計畫書,例如建立生物安全等級(biosafety rating)較高的實驗室等。 3.違反相關規範之受補助對象,將面臨中止、限制或終止補助之處分,甚至失去申請未來聯邦補助單位所補助一切與生命科學相關研究補助的機會。

西班牙AEPD增加關於健康和個人資料保護關注領域

  西班牙個資監管機關(Agencia Española de Protección de Datos, AEPD)於2022年5月3日增加健康和個人資料保護有關的關注領域。觀2021年,計有680件與健康資料相關之爭議案件,與2020年相比增長了75%,又因健康資料為特殊類型之個人資料,故更應嚴加保障。   該領域的內容適用於公民、資料控制者、資料保護專業人員、健康中心或製藥行業等,共分六小節: 一、第一小節概述了與健康資料有關的權利,解釋了歐盟一般個人資料保護規則(General Data Protection Regulation, GDPR)第9條及西班牙當地規範有關處理健康資料定義、如何行使醫療記錄近用權(Right to access),以及與醫學研究相關的問題,其中規定了患者在使用資料和臨床文件方面權利和義務、在近用權被拒絕情況下如何向AEPD申訴、臨床病史保留及刪除權利之限制等。 二、第二小節重點介紹AEPD公布的相關報告和指南,包括勞資關係中之個人資料保護指南,及有關臨床病史、臨床試驗等相關主題之報告。 三、第三小節則著重在AEPD於新型冠狀病毒肺炎(COVID-19)爆發後,製作大量與COVID-19相關之聲明文件及法律報告,故在此彙整相關資料,以協助落實個人資料之保障。 四、第四小節健康研究和臨床試驗,其中彙編了相關指南,以及規範臨床試驗和其他臨床研究以及藥物安全監視所涉個人資料保護行為準則。 五、第五小節講述與健康狀況有關之申訴、賠償紀錄部分,其中包括AEPD收到多項涉及已故患者直系親屬近用醫療記錄之權利或醫療專業人員非法獲取臨床病史和醫療記錄之投訴。 六、第六小節側重於醫療組織洩露個人資料議題,概述了資料控制者之義務以及為確保遵循GDPR而應採取之措施,另強調以特殊方式處理健康資料之活動,如電子健康紀錄、物聯網醫療所使用之行動裝置或雲端等存取設備,皆存在外洩之風險因子。

英國資訊委員辦公室提出人工智慧(AI)稽核框架

  人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。   AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。   「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。   ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。

TOP