英國股權式群眾募資簡介-以近期監管規則發展為中心

刊登期別
第27卷,第4期,2015年04月
 

※ 英國股權式群眾募資簡介-以近期監管規則發展為中心, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7000&no=64&tp=1 (最後瀏覽日:2026/04/16)
引註此篇文章
你可能還會想看
美國眾議院提出軟體法案 為醫療APP提供規範方向

  美國眾議院於2013/10/22提出法案(Sensible Oversight for Technology which Advances Regulatory Efficiency Act of 2013,簡稱Software Act,HR3303),擬限制食品藥物管理局 (Food and Drug Administration,FDA)在與健康醫療有關軟體制訂規範的權限。   根據美國聯邦法典第21編第301條以下(21 U.S.C. § 301)規定,FDA對醫療器材擁有法定職權進行規範。FDA近來亦開始嘗試對醫療軟體APP制訂規範,包括附有生物識別裝置(如血壓監視器和照相機)、讓消費者可以蒐集資料、供醫生可遠距離進行部分檢測行為的行動設備。這項法案的支持者以為,FDA此舉將阻礙醫療創新,故擬透過Software Act界定FDA的規管權限。   這項法案主要增加了3個定義:醫療軟體(medical software)、臨床軟體(clinical software)和健康軟體(health software)。醫療軟體仍在FDA的管轄範圍內,但其他2類則否。惟本法案只確立FDA無權對資料蒐集類軟體進行規範,但對此類軟體得使用的範圍、或是否需另授與執照等議題並沒有著墨。提案者以為,後續應由總統和國會應共同努力,對臨床軟體和健康軟體制訂和頒佈立法,建立以風險為基礎的管制架構,降低管制負擔,促進病患安全與醫療創新。   所謂醫療軟體,指涉及改變身體(changing the body)的軟體。包括意圖透過市場銷售、供消費者使用,直接改變人體結構或功能的軟體;或,意圖透過市場銷售、供消費者使用,以提供臨床醫療行為建議的藥物、器材或治療疾病的程序;或其他不需要健康照護提供者參與的情境,但實施後會直接改變人體結構或功能的藥物、器材或程序。   僅從人體蒐集資料者,被歸類為臨床軟體(由醫療院所、健康照護提供者裝設)或健康軟體(由民眾自為)。兩者的區別,主要在由誰提供並裝設。   所謂臨床軟體,是醫療院所或健康照護提供者在提供服務時使用,提供臨床決策支援目的之軟體,包括抓取、分析、改變或呈現病患或民眾臨床數據相關的硬體和流程,但不會直接改變人體結構或任何功能。   根據Research2Guidance於2013年2月發表的調查報告(Mobile Health Market Report 2013-2017),目前在APPLE的APP Store上已有97,000個行動健康類的APP程式,有3百萬個免費、30萬個付費下載使用者。15%的APP是專門設計給健康照護提供者;與去年相比,已有超過6成的醫生使用平板提供服務。預測消費者使用智慧型手機上的醫療APP的數量,在2015年將達5億。這個法案的出現,外界以為,提供了科技創新者較明確的規範指引,允許醫療的進步和創新。

新冠疫情下日本的數位經濟實踐之路

新冠疫情下日本的數位經濟實踐之路 資訊工業策進會科技法律研究所 2021年3月9日   2021年2月,日本經濟團體聯合會(以下簡稱「經團聯」)發布其所舉辦有關「後疫情時代的數位政府與數位經濟」之座談會研討內容。該座談會於2020年12月舉辦,主旨為探討日本持續推進數位轉型與邁向社會5.0目標之過程中,面對新冠肺炎疫情之擴大,有何待解決之課題[1]。 壹、主要問題   數位轉型之層面所涉甚廣,本文認為可初步分為政府面、企業面及個人面。首先,就政府面而言,可探討如何建立e化政府並提供民眾便捷服務。其次,就個人面而言,則可能涉及消費者資料之蒐集與個人隱私資料保護之議題。最後,就企業面而言,則包含同種企業或不同企業間彼此蒐集到的資料共享、利用及分析。   針對企業間,擔任數位經濟推進委員長之篠原弘道於會中指出,數位轉型致力於價值創新,然而,日本業界間的數位轉型存在一極大的待突破問題,即是彼此對於資料資源之分享,尚存不信任甚且互相猜疑,此將不利於資料共享之發展。篠原弘道進一步說明,數位轉型以突破空間與距離之屏障為特色,欲突破此一屏障有賴於民間企業彼此間的合作與信賴,僅只單一企業的資料本身無法有效達至此目標,呼籲日本國內企業能協力合作,強化數位流通與交流[2]。   執此,如何促進企業間的資料分享,建立互相信賴的關係,突破業界間彼此藩籬,即為官方及民間所應努力的目標。 貳、具體案例   就民間而言,日本已有民間發起之企業共享平台,例如2018年5月至12月,三菱房地產於東京車站周邊之大丸有地區進行實驗性的OMY(大手町、丸之內到有樂町一帶的區域,日本俗稱Daimaruyu,簡稱OMY))資料活化計畫,驗證跨行業別企業間的資料利用分配與有效性,期盼能將資料應用於促進該地區的經濟成長、帶動觀光發展,甚至規劃災害措施[3]。   提供該計畫資料服務平台的富士通有限公司經理池田榮次指出,該計畫為了建立彼此信任感,而非一味地僅關注於資料的分析,進行了多達12間公司之間的對談,並也得到了一定的成效。 參、事件評析   有關企業面的資料活用,本文認為可大致分為「單一公司」、「同業種內」及「異業種間」三者。單一公司之資料活用,以壽司郎為例,其將每盤菜餚均以IC標籤管理,藉以蒐集每盤菜餚之新鮮度、銷售情況。從而,累積之資料即可運用於掌握消費者喜好,並避免食材之浪費等[4]。同業種內則涉及相同類別的企業間,藉由共享資料以減低成本。例如不同藥物研發公司,藉由樣本試驗共享,從而擴增實驗母群體之數量[5]。異業公司則可能由位於同一地區之不同企業所構成,例如前揭大丸有OMY資料活用計畫。   經團聯所提出之議題,乃著眼於同業種內及異業種間的跨公司間資料交流不易,因而提出民間企業積極跨越藩籬之呼籲。我國於推動資料共享平台等相關政策時,亦可思考政府端可提供何種支持及資源,以側面促進同種或不同種企業間之資料共享意願;同時,如何令企業理解到彼此間的合作協力,將是新興價值得以開拓的寶貴契機,亦是一大值得省思之重點。 參考連結 日本經濟團體聯合會2月份月刊特集〈後疫情時代的數位政府與數位經濟〉https://www.keidanren.or.jp/journal/monthly/2021/02_zadankai.pdf [1]〈ポストコロナのデジタルガバメントとデジタルエコノミー〉,《経団連月刊》,2月号期,(2021)。 [2]同前註,頁15。 [3]〈異業種データ活用で、東京のビジネスエリアが生まれ変わる【前編】〉,Fujitsu Journal,https://blog.global.fujitsu.com/jp/2019-07-26/01/,(最後瀏覽日:2021/03/09)。 [4]〈15社のビッグデータ活用事例から学ぶ、成果につながる活用の方法〉,https://liskul.com/wm_bd10-4861#3_IC(最後瀏覽日:2021/3/9)。 [5]独立行政法人情報処理推進機構,〈データ利活用における重要情報共有管理に関する調査 調査実施報告書〉,頁9(2018)。

美國商務部國家電信和資訊管理局呼籲透過第三方評測提高AI系統透明度

2024年3月27日,美國商務部國家電信和資訊管理局(National Telecommunications and Information Administration, NTIA)發布「人工智慧問責政策報告」(AI Accountability Policy Report),該報告呼籲對人工智慧系統進行獨立評估(Independent Evaluations)或是第三方評測,期待藉此提高人工智慧系統的透明度。 人工智慧問責政策報告就如何對人工智慧系統進行第三方評測提出八項建議作法,分別如下: 1.人工智慧稽核指引:聯邦政府應為稽核人員制定適合的人工智慧稽核指引,該指引須包含評估標準與合適的稽核員證書。 2.改善資訊揭露:人工智慧系統雖然已經應用在許多領域,但其運作模式尚缺乏透明度。NTIA認為未來可以透過類似營養標籤(Nutrition Label)的方式,使人工智慧模型的架構、訓練資料、限制與偏差等重要資訊更加透明。 3.責任標準(Liability Standards):聯邦政府應盡快訂定相關責任歸屬標準,以解決現行制度下,人工智慧系統造成損害的法律責任問題。 4.增加第三方評測所需資源:聯邦政府應投入必要的資源,以滿足國家對人工智慧系統獨立評估的需求。相關必要資源如: (1)資助美國人工智慧安全研究所(U.S. Artificial Intelligence Safety Institute); (2)嚴格評估所需的運算資源與雲端基礎設施(Cloud Infrastructure); (3)提供獎金和研究資源,以鼓勵參與紅隊測試的個人或團隊; (4)培養第三方評測機構的專家人才。 5.開發及使用驗證工具:NTIA呼籲聯邦機關開發及使用可靠的評測工具,以評估人工智慧系統之使用情況,例如透明度工具(Transparency Tools)、認驗證工具(Verification and Validation Tools)等。 6.獨立評估:NTIA建議聯邦機關應針對高風險的人工智慧類別進行第三方評測與監管,特別是可能侵害權利或安全的模型,應在其發布或應用前進行評測。 7.提升聯邦機關風險管控能力:NTIA建議各機關應記錄人工智慧的不良事件、建立人工智慧系統稽核的登記冊,並根據需求提供評測、認證與文件紀錄。 8.契約:透過採購契約要求政府之供應商、承包商採用符合標準的人工智慧治理方式與實踐。 NTIA將持續與利害關係各方合作,以建立人工智慧風險的問責機制,並確保該問責報告之建議得以落實。

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

TOP