德國政府意識到伴隨數位化發展的創新科技和商業模式雖然提供了許多機會,但往往容易對消費者、產業和社會產生顛覆性影響,此類影響通常難以在短期內權衡利弊,從而不易對其訂出具體合適的規範,例如德國新創公司Lilium、奧迪子公司Italdesign、以及歐洲航空巨擘Airbus都有意發展的空中計程車計畫,雖有無限想像空間,但卻很難在短期內評估出可能隨之而來的安全、(空氣或噪音)汙染、就業等方面的不利影響,進而制定出寬嚴適中的規範。有鑑於此,德國聯邦經濟及能源部(Bundesministerium für Wirtschaft und Energie, BMWi)於2018年12月10日提出「真實實驗室戰略」(Reallabore Strategie),旨在營造一個前瞻、靈活、可支持創新想法自由發揮的法規環境,同時也希望藉由在真實實驗室運作所得之經驗數據,了解創新的機會和風險,進而找到正確的監管答案。
「真實實驗室」(Reallabore)係指允許在特定時間及真實環境範圍內,進行創新科技與商業模式發展測試,而無需擔心與現行監管規範有所牴觸的創新試驗制度,其與「生活實驗室」(Living Labs)和「實驗場域」(Experimentierräume)、「沙盒」(Sandbox)、「領航計畫」(Pilot Project)等概念類似,與我國「金融科技創新實驗」及「無人載具科技創新實驗」之制度規範亦有異曲同工之趣,但更著重在探索未來的監管方向,簡而言之,「真實實驗室」就是一個創新想法與監管規範的試驗空間,德國聯邦經濟及能源部(BMWi)為具體傳達其概念,對其特徵作了如下描述:(1)可以進行數位創新試驗的特定時空環境(2)可以支持創新想法自由發揮的法規環境(3)可以從中進行監管學習並確定未來監管方向與具體細節。
本文為「經濟部產業技術司科技專案成果」
研發成果下放就不適用國有財產法嗎? 資訊工業策進會科技法律研究所 2020年3月26日 科學技術基本法(下稱科技基本法)下放研發成果予執行單位,授權各部會機關按其對研發成果管理運用的需求,彈性制訂該部會之科學技術研究發展成果歸屬及運用辦法(下稱成果運用辦法)。然據悉某些公立學校或公立機關(構)曾在盤點財產時,因漏未將研發成果登入為國有財產,或列帳時未列載相關費用而遭主計處指正,從而對研發成果是否為國有財產及如何適用國有財產法有所疑問。因此,本文先回歸科技基本法,探討國有財產法之適用範圍,再論成果運用辦法和國有財產法間互補適用的關係,以解答上述疑問。 壹、科技基本法排除國有財產法適用之範圍 按科技基本法第6條第1項及第2項[1],當研發成果歸屬於公立學校、公立機關(構)或公營事業等公部門單位時,僅排除適用國有財產法中保管、使用、收益及處分之規定,改由各部會之成果運用辦法規範,故當研發成果歸屬於公部門時,並非完全排除適用國有財產法,係僅於前揭特定管理運用事項適用科技基本法及其授權訂定之成果運用辦法。因此其他未被排除的國有財產法規定[2],包括何謂國有財產與國有財產種類之總則、國有財產登記、設定產籍與維護,以及有關國有財產之檢查與財產報告等仍須依循相關規範。前述遭主計處指正之案例,或許就是忽略歸屬於公部門之研發成果仍有前揭國有財產法之適用,致漏未將研發成果依該法登入國有財產或將相關支出列帳。 貳、成果運用辦法的適用範圍 另一可能造成執行單位在運用其研發成果時產生疑問的原因,是現行各部會之成果運用辦法中,有部分規定與前述科技基本法第6條第2項,將歸屬於公立學校與公立機關(構)之研發成果定性為國有財產之意旨扞格。以衛生福利部科學技術研究發展成果歸屬及運用辦法(下稱衛福部成果運用辦法)為例,雖然按該辦法第2條第5款定義國有研發成果為研發成果歸屬國家所有者。然該辦法第30條第1項第1款[3],卻出現執行單位為公、私立學校、公立研究機關(構)之「非國有」研發成果收入之上繳交比率規定,恐使適用本辦法之公立學校、公立機關(構),誤以為其所有之研發成果可為非國有,而產生無庸適用國有財產法之誤解,亦與該辦法第2條第5款對國有研發成果的定義產生內部矛盾,更與科技基本法第6條第2項相衝突。 當研發成果歸屬公立學校、公立機關(構)時,因上述公部門單位本即為政府機關(構),故歸屬上述單位等同歸屬於國家,凡屬上述單位所有之研發成果即為國有研發成果,也會適用國有財產法;邏輯上不應出現公部門單位擁有非國有研發成果之情況,顯然衛福部成果運用辦法第30條第1項應修正第1款,將非國有研發成果上繳比率規定之適用主體排除公立學校、公立研究機關(構)。 參、結論 現行科技基本法第6條第1項與第2項,使研發成果是否適用國有財產法,會因為其歸屬而有不同。研發成果歸屬於公部門者為國有財產原則上應適用部分國有財產法,例外於特定管理運用事項始適用各該部會的成果運用辦法;而研發成果歸屬於私部門者非國有財產,無國有財產法之適用,僅適用各該部會辦法管理。在這套體制下,執行單位須注意國有研發成果仍是國有財產,仍須依國有財產法進行財產列帳、登記及財產檢查;而出現規定公立學校、公立研究機關(構)「非國有研發成果」條文之成果運用辦法, 則顯與現行科技基本法有違,反致生誤會,建議進行修正。公立學校與公立研究機關(構)在進行研發成果之管理、運用時,除依循各部會成果運用辦法外,應注意科技基本法的意旨,以避免造成被認為未依法處理之情況。 [1]科技基本法第6條第1項及第2項:「政府補助、委託、出資或公立研究機關(構)依法編列科學技術研究發展預算所進行之科學技術研究發展,應依評選或審查之方式決定對象,評選或審查應附理由。其所獲得之研究發展成果,得全部或一部歸屬於執行研究發展之單位所有或授權使用,不受國有財產法之限制。前項研究發展成果及其收入,歸屬於公立學校、公立機關(構)或公營事業者,其保管、使用、收益及處分不受國有財產法第十一條、第十三條、第十四條、第二十條、第二十五條、第二十八條、第二十九條、第三十三條、第三十五條、第三十六條、第五十六條、第五十七條、第五十八條、第六十條及第六十四條規定之限制。」 [2]未被排除而應適用的國有財產法條為:第1條到第8條總則、第9、10、12、16條之管理機構、第17條到第19條國有財產登記、第21條到第24條設定產籍、第26條有價證券保管處所、第27條之損害賠償責任、第30、31條不動產維護、第32、34條公用國有財產之使用和非公用國有財產之變更、第37條受贈財產,第38到41條非公用財產撥用、收益、第42到44、45條不動產與動產出租、第46到48條不動產與動產之利用,處分第49到55條不動產與動產標售、第59條非公用財產之估價、第61到63條財產檢查、第65到70條財產報告、第71到73條之刑責和舉報獎金、第75到77條之施行日期等。內文未提及之其它未排除適用的條文,主要是針對有體物,即動產與不動產的相關規範,和非公用國有財產之管理;而研發成果多為無體財產,即智慧財產權等,且多為公用財產,故使用這部分條文的情況較少,在此不贅述。 [3]衛福部成果運用辦法第30條第1項第1款:「執行單位因管理及運用其非國有研發成果之收入,應依下列規定辦理:一、執行單位為公、私立學校、公立研究機關(構)者,應將其研發成果收入之百分之二十繳交本部。」
歐盟執委會發布「2016-2020年e政府行動計畫」並展開公眾諮詢歐盟執委會先前自2015年10月30日到2016年1月22日,針對其2016-2020年e政府行動計畫(eGovernment Action Plan)進行了公眾諮詢程序。執委會依據其公眾意見諮詢之初步分析,於2016年2月23日說明其2016-2020年的e政府行動計畫政策,將藉由公共行政管理措施(包含司法部分)的e化,實現歐盟數位單一市場的目標,提高跨境的互通性以及促進歐盟公民間的便捷交流。 歐盟執委會就該計畫目前有以下四項目標: (1) 透過資通訊之技術促進公共管理措施的現代化。 (2) 藉由數位化的公共服務提高跨境行動(cross-border mobility)的可能。 (3) 加強行政單位與歐盟公民及企業間的數位互動交流(digital interaction)。 (4) 推動數位化的關鍵措施。 相關監測及措施期程的指標,執委會將於未來幾個月內再為詳細之說明。而所有e政府行動計畫均應依循下列原則進行: (1) 數位化設定(digital-by-default):若其他可傳送服務之管道能選擇中斷服務或必須中斷服務時,行動措施應給予服務線上傳輸的特權。 (2) 跨境設定(cross-border by default):行動措施不應於歐盟內部市場製造新的跨境障礙。 (3) 一次性原則(once-only principle):行動措施應僅得於行政單位從未持有數據或資訊時,要求歐盟公民或企業提供該數據或資訊。 (4) 內含設定(inclusive by default):行動措施應促進所有歐盟公民或企業與公共行政單位的互動交流。 (5) 不保留原則(no legacy principle):超過15年的基礎設施或應用服務不再維護保留。 (6) 隱私及資料保護(privacy & data protection):所有數位化的公共服務皆應就個人資料之基本權利為完善的保護。 (7) 開放及透明化設定(open & transparency by default):行動措施應就重複使用及透明化為開放之設定。
歐盟網路與資訊安全局暨網路安全認證規則要求進行「網路安全認證機制」歐盟執委會於2019年6月正式通過「歐盟網路與資訊安全局暨網路安全認證規則(EU Regulation on ENISA and Cyber Security Certification)(Regulation (EU) 2019/881)。規則新增歐盟網路與資訊安全局(European Union Agency for Network and Information Security,ENISA)之職責,負責推行「網路安全認證機制(European cybersecurity certification scheme)」。 網路安全認證機制旨在歐盟層面針對特定產品、服務及流程評估其網路安全。運作模式是將產品或服務進行分類,有不同的評估類型(如自行評估或第三方評估)、網路安全規範(如參考標準或技術規範)、預期的保證等級(如低、中、高),並給予相關之認證。為了呈現網路安全風險的程度,證明書上可以使用三個級別:低、中、高(basic,substantial,high)。若資訊安全事件發生時,對產品、服務及流程造成影響時,廠商應依據其產品或服務之級別採行相對應的因應對策。若被認證為高等級的產品,則表示已經通過最高等級的安全性測試。 廠商之產品或服務被認可後會得到一張認證書,使企業進行跨境交易時,能讓使用者更方便理解產品或服務的安全性,供應商間能在歐盟市場內進行良好的競爭,從而產生更好的產品及性價比。藉由該認證機制所產生的認證書,對於市場方將帶來以下之效益: 一、產品或服務的提供商(包括中小型企業和新創企業)和供應商:藉由該機制獲得歐盟證書,可以在成員國中提升競爭力。 二、公民和最終使用者(例如基礎設施的運營商):針對日常所需的產品和服務,能做出更明智的購買決策。例如消費者欲購買智慧家具,就可藉由ENISA的網路安全認證網站諮詢該產品網路安全資訊。 三、個人、商業買家、政府:在購買某產品或服務時,可以藉此機制讓產品或服務的資訊透明化,以做出更好的抉擇。
德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現