外太空條約(Outer Space Treaty),為各國探索和利用包括月球和其他天體的外太空活動所應遵守原則之條約。聯合國大會於1966年12月17日通過該條約,在1967年 10月10日生效,目前絕大多數會員國已簽署並批准。外太空條約為國際提供了外太空的基本法律框架,包括以下原則:
本文為「經濟部產業技術司科技專案成果」
日本電信事業個人資料保護指針(電気通信事業における個人情報保護に関するガイドライン)自2011年修訂後至今即未有任何改變。然而,隨著現代行動通信軟硬設備技術的進步,智慧型手機中已有許多應用程式可透過GPS衛星定位功能準確獲取使用者之位置資訊,倘若司法機關也能於搜查辦案過程即時取得此定位資訊,將可提高偵查效率並縮短破案時程。 為此,日本總務省擬將原先須事先通知行動設備使用人與獲得法院令狀後,方得利用GPS衛星定位獲取位置資訊之電信事業個人資料保護指針第26條修訂為司法機關取得法院令狀後,即可利用GPS衛星定位獲取行動設備使用人位置訊息。 然此項修訂除將可能造成行動通訊業者營運上的額外負擔之外,亦有侵害設備使用者之個人隱私與個人資料疑慮。因此,為了抑止濫為偵查,法院令狀之發出須有其必要性,搜查機關亦必須向行動通訊業者為必要性之說明。 再者,此項利用GPS衛星定位獲取位置訊息之方式也僅限於使用Android系統設備且將定位功能開啟之使用者,對於使用Apple iOS系統設備之使用者則不但須使用者開啟定位功能,還須經過美商蘋果公司同意方能取得亦是一項難題。 日本總務省已於2015年4月17日發布此項法令修訂訊息並徵詢公眾意見,預計於6月完成修法並公布之。
魔術方塊立體商標權與競爭法之交會今年5月26日,歐盟高等法院做出裁決,認為魔術方塊不應擁有立體商標權的保護,結束了長達十年的魔術方塊立體商標權爭議。而本案於11月10日已結束聽證會(full hearing),多數意見仍然支持法院的觀點。 歐盟高等法院認為,魔術方塊的立體造型外觀,已成為他3D多面旋轉功能不可或缺的一部分,如果賦與其商標權保護,由於商標權可無限期展延的特性,等於永久阻止所有相同或類似造型外觀的產品上市,間接妨礙了技術上的突破與創新,形成一種相同或類似技術上的獨占地位(monopoly)。裁決更指出,其應以專利權作為申請標的,以保障發明人智慧財產權,而非以商標權變相延伸專利權的保護範圍。 在類似的案例中,雀巢的四指造型巧克力被歐盟法院(CJEU)駁回,理由之一為產品形狀為達到技術結果的必須條件(該造型提供了掰開巧克力的獨特方式),與本案有異曲同工之妙。 然而,反對見解認為,如不賦與魔術方塊立體商標,等於鼓勵仿冒者用相同或類似外觀作為商標使用,而不論該仿品外觀是否確實賦與相同之技術結果,間接限縮了立體商標權的保護效力。 我國立體商標審查基準中也有類似的規定,排除具有功能性的外觀造型註冊立體商標。然而,應該思考的毋寧是,當產品技術水準無法成功申請專利權保護時,如同時駁回該產品外觀的立體商標註冊,則該如何維護該產品的智慧財產權,又該如何防止他人抄襲與仿冒,是本案遺留下的重要問題。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。
德國聯邦內政部公布《資訊科技安全法草案》