本文為「經濟部產業技術司科技專案成果」
美國國家航空暨太空總署(National Aeronautics and Space Administration,NASA)向企業購買月球Regolith(岩屑層)與岩石物質,並於2020年9月提出《月球Regolith採購工作績效聲明》(Lunar Regolith Purchase Request Performance Work Statement)。惟月球的物質,是否可以開採? 依據《各國探索與應用外太空、月球暨其他天體之活動管理原則條約》(Treaty on Principles Governing the Activities of States in the Exploration and Use of Outer Space, Including the Moon and Other Celestial Bodies)第2條,外太空、月球與其他星體,非任何國家可藉由使用、占領與其他方式,或應用國家經費,而宣稱擁有主權。針對NASA的月球物質採購計畫,是否合乎該條約?NASA署長Jim Bridenstine指出,Artemis計畫增加商業參與,要求企業蒐集小型的月球「塵埃」(dirt),或月球表面的岩石。Jim Bridenstine並認為此項提案,充分遵守該條約與其他國際義務。申言之,NASA認為月球之物質,具有私有化之可能性。 為採購企業蒐集之月球物質,NASA擬定《月球Regolith採購工作績效聲明》,規範企業的義務為:1、自月球表面蒐集50克至500克的Regolith或岩石物質;2、提供NASA蒐集與物質的影像,該資料足以識別蒐集地點為月球表面;3、就地(in-place)移轉NASA蒐集物質的所有權,此些物質並將成為NASA得以使用的私有財產(sole property)。企業得以決定在月球表面的任何地點蒐集,且無須評估蒐集的材料;NASA係採購蒐集狀態(“as-collected” condition),並有權利獨立確認企業蒐集物質的聲明。亦即企業的任務為採購物質,並提出證明;對月球物質的評估,則由NASA為之。 企業對NASA採購月球物質之履行,須於2024年以前完成;NASA對契約的獎勵,並不以月球物質蒐集的數量為基準。NASA對企業採購月球物質的支付依據:10%來自於企業完成NASA概念審查的提案;10%係企業為此蒐集任務,而由企業系統發射航空器至太空;80%為達成移轉NASA太空物質的所有權。另外,機器人登陸器(robotic lander)的設計與建構,並非屬NASA向企業徵集太空物質之內容。換言之,NASA之採購計畫並非強調太空物質之蒐集數量,而係著重於太空物質所有權之移轉。 綜上所論,NASA向企業採購月球Regolith與岩石物質,並以所有權之移轉為主,開啟太空物質私有化的可能性。
標準制定組織成員之專利揭露義務標準制定組織為了提高產業競爭,防止標準制定組織之會員們,在獲得涵蓋產業標準的專利權後,以壟斷性手段壓迫其他競爭對手,故通常會以智慧財產權政策要求參加的會員揭露其被標準制定組織選擇寫入標準的專利。其重要內容通常包括: 1. 必要專利揭露 許多標準制定組織皆有規定,標準必要專利權人應依以誠實信用及適當方式進行揭露之義務,例如IEEE及ETSI 。即對於討論中的技術標準,必須對標準制定組織及其參與者公開揭露所持有的必要專利。揭露的基本目的主要有三項 : (1) 使標準開發相關工作小組會員可以掌握納入標準之多項候選技術的基本資訊(例如專利技術價值、成本及可行性等等),並做出適當選擇。 (2) 藉此得知須提出授權聲明或承諾的必要專利權人。 (3) 藉此讓必要專利的潛在實施者得知應向那些必要專利權人獲取必要專利相關資訊。 2. 事前揭露授權條款(ex-ante disclosure of licensing terms) 事前揭露授權條款係一種受保護之技術在被採納為標準必要專利前,將授權條件的揭露的機制,目前IEEE及ETSI採行自願性揭露方式。與必要智財權的揭露及授權聲明不同,其主要的目的在於讓標準制定委員會將技術採納為標準前,可以根據所揭露的授權條件來決定有那些技術在符合權利人授權條件下,有哪些技術可以納入標準,又有哪些不同替代技術,並據以作成決定 。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。
論ENUM服務推動與應用之法制議題