德國政府意識到伴隨數位化發展的創新科技和商業模式雖然提供了許多機會,但往往容易對消費者、產業和社會產生顛覆性影響,此類影響通常難以在短期內權衡利弊,從而不易對其訂出具體合適的規範,例如德國新創公司Lilium、奧迪子公司Italdesign、以及歐洲航空巨擘Airbus都有意發展的空中計程車計畫,雖有無限想像空間,但卻很難在短期內評估出可能隨之而來的安全、(空氣或噪音)汙染、就業等方面的不利影響,進而制定出寬嚴適中的規範。有鑑於此,德國聯邦經濟及能源部(Bundesministerium für Wirtschaft und Energie, BMWi)於2018年12月10日提出「真實實驗室戰略」(Reallabore Strategie),旨在營造一個前瞻、靈活、可支持創新想法自由發揮的法規環境,同時也希望藉由在真實實驗室運作所得之經驗數據,了解創新的機會和風險,進而找到正確的監管答案。
「真實實驗室」(Reallabore)係指允許在特定時間及真實環境範圍內,進行創新科技與商業模式發展測試,而無需擔心與現行監管規範有所牴觸的創新試驗制度,其與「生活實驗室」(Living Labs)和「實驗場域」(Experimentierräume)、「沙盒」(Sandbox)、「領航計畫」(Pilot Project)等概念類似,與我國「金融科技創新實驗」及「無人載具科技創新實驗」之制度規範亦有異曲同工之趣,但更著重在探索未來的監管方向,簡而言之,「真實實驗室」就是一個創新想法與監管規範的試驗空間,德國聯邦經濟及能源部(BMWi)為具體傳達其概念,對其特徵作了如下描述:(1)可以進行數位創新試驗的特定時空環境(2)可以支持創新想法自由發揮的法規環境(3)可以從中進行監管學習並確定未來監管方向與具體細節。
本文為「經濟部產業技術司科技專案成果」
美國聯邦巡迴上訴法院在2009年底於The Forest Group Inc. v. Bon Tool Co. 一案中將美國專利法35 U.S.C. § 292中關於不實專利標示(false patent marking)的懲罰金計算方式認定為罰金之計算是以每一個標示錯誤專利資訊的產品為基礎。美國專利法35 U.S.C. § 292中要求法院對專利資訊標示不實或錯誤之產品或包裝處以最高美金$500的罰金。在此案之前,許多地方法院將35 U.S.C. § 292解釋為罰金之計算是以每一次被告”決定”將產品標示不實專利資訊為基礎 (single penalty for each “decision” to falsely mark products),不論此決定是包含一個或一整批產品。在本案中,聯邦巡迴上訴法院同意地方法院的看法認定被告Forest Group意圖藉不實專利標示企圖欺騙大眾但撤銷地方法院將罰金定為$500之判定,而將目前專利法35 U.S.C. § 292 解釋為罰金是以”每一個”標示錯誤專利資訊的產品為基礎 (penalty for false marking on a per article basis)。 為了防範日後因此案罰金計算方式而造成所謂”標示流氓”(marking trolls) 之興起,聯邦法院於其判決中特別說明其解釋並非要求法院必須將每一標示錯誤專利資訊的產品處以$500美元的罰金。因法條中之罰金是以美金$500為上限,法院有權利權衡各案例背景決定罰款金額。例如,針對大量製造但價錢低廉的產品, 法院可對每一個產品處以極少的罰金。 The Forest Group 一案是美國聯邦巡迴上訴法院第一次針對不實專利標示之罰金提出解釋,直得關注其後續引發反應。廠商也應重新檢視其產品專利標示是否有不實或錯誤之狀況以避免被控標示不實專利資訊而被處以罰款。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。
開放科學(open science)開放科學的基本理念,泛指在數位時代的背景下,各類型實驗測量機器獲得大量數據,以及網路行為累積的人類活動記錄,使各領域的研究活動趨向側重資料處理,結合分析工具後,以可閱讀的形式呈現並發表。 開放科學概念應用於行政與制度建立上,主要有兩個面向,其一為政府資助產出科學期刊論文等研究成果的開放取用(open access),意圖解決期刊雜誌訂閱費用過高,導致研究成果流通困難的問題,屬於早期開放科學關注的重點;其二則係使用官方研究資金進行研發時,於研究過程中取得的實驗、觀測及調查之研究資料開放運用,為近期政策與制度性倡議所聚焦,目的為使科學界、產業界以及一般社會大眾得以廣為接收並利用該些研究結果,令政府資金運用的一切成果均能充分回饋給國民與社會,期望藉由研究資料的公開,進一步深化該領域的研究進程、推展跨域研究或企業的產品與服務開發、以及創新活動。 舉例而言,日本內閣府於2018年提出的「統合創新戰略(統合イノベーション戦略)」第二章內,建構了國內開放科學下研究資料管理開放政策之基礎框架,關注伺服器空間內的研究資料保存與管理,與外國研究資料連動以建構巨量知識泉源,讓所有人得以廣泛活用該些研究資料,促成與加速跨領域與跨國境的新創。
特別301報告特別301報告(The Special 301 Report)是由美國貿易代表署(Office of the United States Trade Representative, USTR)公布之關於世界各國智慧財產權年度報告。1988年,美國國會修法增訂「特別301條款」,要求美國貿易代表署針對智慧產權保護或市場開放程度不足之國家,按嚴重程度於特別301報告中分列為「優先指定國家」(Priority Foreign Country)、「優先觀察名單」(Priority Watch List)和「一般觀察名單」(Watch List),並對「優先指定國家」啟動調查及協商談判。 美國每年對世界各國是否有效保護智慧財產權進行審查,並提出特別301報告。報告羅列範圍廣泛,包含: 世界各國智財權保護以及執法有效性; 網路銷售各種盜版及仿冒商標之商品情形; 世界各國貿易壁壘(market access barriers),例如貿易市場不透明、歧視性、或其他限制貿易的措施等,是否妨礙取得醫療保健(healthcare)或其他受智財權保護的資訊。 2019特別 301 報告(2019 Special 301 Report)於2019年4月公布。其中加拿大因簽署了《美墨加協定》(United States-Mexico-Canada Agreement, USMCA),實質改善加拿大智慧財產權環境,因而加拿大已從優先觀察名單轉為一般觀察名單。此外,中國連續15年被列入優先觀察名單,報告認為中國迫切需要進行基本的結構性改革,加強智財權保護。我國自1998年起被列入一般觀察名單,直至2009年除名,至今均未上榜,亦表美國肯認我國的智財保護發展。