歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。
《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。
歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。
英國上議院人工智慧專責委員會(Select Committee on Artificial Intelligence)2018年4月18日公開「AI在英國:準備、意願與可能性?(AI in the UK: ready, willing and able?)」報告,針對AI可能產生的影響與議題提出政策建議。 委員會建議為避免AI的系統與應用上出現偏頗,應注重大量資訊蒐集之方式;無論是企業或學術界,皆應於人民隱私獲得保障之情況下方有合理近用數據資訊的權利。因此為建立保護框架與相關機制,其呼籲政府應主動檢視潛在英國中大型科技公司壟斷數據之可能性;為使AI的發展具有可理解性和避免產生偏見,政府應提供誘因發展審查AI領域中資訊應用之方法,並鼓勵增加AI人才訓練與招募的多元性。 再者,為促進AI應用之意識與了解,委員會建議產業應建立機制,知會消費者其應用AI做出敏感決策的時機。為因應AI對就業市場之衝擊,建議利用如國家再訓練方案發展再訓練之計畫,並於早期教育中即加入AI教育;並促進公部門AI之發展與布建,特別於健康照顧應用層面。另外,針對AI失靈可能性,應釐清目前法律領域是否足以因應其失靈所造成之損害,並應提供資金進行更進一步之研究,特別於網路安全風險之面向。 本報告並期待建立AI共通之倫理原則,為未來AI相關管制奠定初步基礎與框架。
創投業景氣欠佳,政府扮演助力角色在網路泡沫化之後,曾經在九○年代紅極一時的資金投資機構 -- 創業投資 (Venture Capital) 也歷經了前所未有的低潮。創業意願的低落、股市的低迷,使得創投在投資目標的選擇與投資的回收上,都面臨很大的瓶頸。 然而近期以來,在美國,一股對創投支撐的力道,正逐漸成形。這股力量正是來自於各州的政府。目前在美國,除了六個州之外,各州的政府均積極投入創投產業,希望透過創投的中介功能,發展產業。各州政府經由創投發展的產業,主要有生技、醫療設備、軟體、電信、能源、半導體與網路等。 各州政府希望透過創投,發展當地的產業,並提供就業機會。在這波的潮流之下,四十四個州所支持的 151 支創投基金,已為創投業者帶來一股新的希望。
德國與愛爾蘭對於個人資料處理是否須明示同意之見解不同德國與愛爾蘭資料保護局對於資料保護指令所規定個人資料(以下簡稱個資)的處理(process),是否須取得資料當事人明示同意,表示不同的見解。德國資料保護局認為臉書網站所提供之人臉辨識(預設加入)選擇退出(opt out consent)的設定,並不符合資料保護指令(Data Protection Directive)對於同意(consent)的規範,且有違資訊自主權(self-determination);然而,愛爾蘭資料保護局則認為選擇退出的機制並未牴觸資料保護指令。 德國資料保護局委員Johannes Caspar教授表示,預設同意蒐集、使用與揭露,再讓資料當事人可選擇取消預設的作法,其實已經違反資訊自主權(self-determination)。並主張當以當事人同意作為個人資料處理之法律依據時,必須取得資料當事人對其個資處理(processing)之明示同意(explicit consent)。對於部長理事會(Council of Ministers)認同倘資料當事人未表達歧見(unambiguous),則企業或組織即可處理其個人資料的見解,Caspar教授亦無法予以苟同。他認為部長理事會的建議,不但與目前正在修訂的歐盟資料保護規則草案不符,更是有違現行個資保護指令的規定。 有學者認為「同意」一詞雖然不是非常抽象的法律概念,但也不是絕對客觀的概念,尤其是將「同意」單獨分開來看的時候,結果可能不太一樣;對於「同意」的理解,可能受到其他因素,特別文化和社會整體,的影響,上述德國和愛爾蘭資料保護局之意見分歧即為最好案例。 對於同意(consent)的落實是否總是須由資料當事人之明示同意,為近來資料保護規則草案(The Proposed EU General Data Protection Regulation)增修時受熱烈討論的核心議題。資料保護規則草案即將成為歐盟會員國一致適用的規則,應減少分歧,然而對於企業來說,仍需要正視即將實施的規則有解釋不一致的情況,這也是目前討論資料保護規則草案時所面臨的難題之一。
概念驗證中心(Proof of Concept Center, PoCC)概念驗證中心(Proof of Concept Center, PoCC)源自美國研究型大學各校為加速大學科研成果商業化,於內部建立的專業型機構。全美第一所PoCC是2001年設立於加州大學聖地牙哥分校的「里比西中心」(the William J. von Liebig)。 為了因應美國大學科研成果商業化過程中所遇到的阻礙,例如:資金與資源缺乏導致研發人員動力不足、研發人員對於市場需求資訊不對等、技術開發提升緩慢以及政府激勵政策不足等問題。PoCC以解決大學與企業之間存在的各種差異與衝突為目標,並透過下列手段強化科技成果商業化動力,提升商業化績效:1、通過種子基金資助,為無法獲得資金支持的早期研究提供經費挹注;2、為大學科研成果商業化提供市場顧問與技術開發諮詢,以及智慧財產權保護等諮商;3、創業人才教育及培訓,促進創業文化並進行創業教育,以增強大學與產業協同創新能力。