歐盟執委會(European Commission)於2020年2月19日提出「歐洲資料戰略」(the European data strategy),其將建立單一資料市場(single data market)。針對少數大型科技公司(big tech)往往透過定位、社群網路等服務,掌控全球大量資料,且嚴重阻礙由資料驅動之商業型態(data-driven business)的發展與創新,透過建立單一資料市場,開放未使用的資料,使資料可於歐盟內部及跨部門自由流動,以對抗美國大型科技公司,例如:Facebook、Google或Amazon等資料壟斷之情況,確保市場開放和公平。 依據文件內容,歐洲資料戰略主要目標在於,善用歐盟巨量產業資料和創新科技,建立一個公平的歐盟資料空間,鼓勵資料共享,並建議制定資料監管規則。歐盟相關措施包含公布更多地理空間、環境、氣象學等公共資料(public data);免費提供企業街區資料;針對阻礙資料分享之規範訂定競爭法;提供新跨境資料使用和整合規範;針對製造、氣候變遷、自動產業、健康照護、金融服務、農業、能源等提供相關標準;廢除阻礙資料共享的相關規則,避免線上平臺對資料限制利用或獲利顯失公平之情況。歐盟執委會預計於2020年底提出數位服務法(Digital Services Act),提供企業於單一市場營運更清楚規則,強化數位平臺責任和保護基本權利。
美國商務部修改《出口管制規則》限制華為取得由美國技術及軟體設計製造的半導體產品美國商務部工業及安全局(Bureau of Industry and Security, BIS)於2020年5月15日公告,為防止中國大陸華為取得關鍵技術,修正美國《出口管制規則》(Export Administration Regulations, EAR)第736.2(b)(3)條第(vi)款「外國直接產品規則」(Foreign-Produced Direct Product Rule),限制華為透過國外廠商,取得包含美國技術及軟體設計製造在內的半導體產品,以保護美國國家安全。並於「實體清單」(Entity List)增加註腳一(footnote 1 of Supplement No. 4 to part 744)之規定,使部分出口管制分類編號(Export Control Classification Number, ECCN)第3(電子產品設計與生產)、4(電腦相關產品)、5(電信及資訊安全)類之技術所製造的產品,不能出口給華為與分支企業。 自2019年起,BIS將華為及其114個海外關係企業列入實體清單以來,任何要出口美國產品給華為的企業,必須事先取得美國出口許可證;然而,華為及其海外分支機構透過美國委託海外代工廠商生產產品事業,繞道使用美國軟體和技術所設計的半導體產品,已破壞美國國家安全機制與設置出口管制實體清單所欲達成之外交政策目的。本次為修補規則漏洞調整「外國直接產品規則」,不僅限制華為及其實體清單所列關係企業(例如海思半導體),使用美國商業管制清單(Commerce control list, CCL)內的軟體與技術,設計生產產品。美國以外廠商(例如我國台積電)為華為及實體清單所列關係企業生產代工,使用CCL清單內的軟體與技術,設計生產的半導體製造設備與產品,亦將同受《出口管制規則》之拘束。這代表此類外國生產產品,從美國以外地區,透過出口、再出口或轉讓給華為及實體清單上的關係企業時,皆需取得美國政府出口許可證,影響範圍擴及全球產業供應鏈。
可專利性(Patentability)與專利適格(Patent-Eligibility)有何不同?可專利性(Patentability)與專利適格(Patent-Eligibility)常被混用,但實際上兩者並不可以畫上等號。 具專利適格不等於可專利一事,在指標判例In re Bilski可窺知端倪:「新穎性(Novelty)、進步性(Non-obviousness,或稱非顯而易見性)的分析,和35 U.S.C. §101(專利適格的法源)無關,而是分別以35 U.S.C. §102、35 U.S.C. §103作為法源。」顯示專利適格、實用性(Utility,或稱「產業利用性」)、新穎性、進步性,互不隸屬。梳理美國專利法教課書(Casebook)和判決內容,可知:「專利適格」是取得專利的基礎門檻、資格,具專利適格,並不必然可專利,還須符合實用性、新穎性、可進步性,才是一個「可專利」的發明。另應強調,「專利適格」除了需要滿足§101法條文字外,還需要滿足美國專利與商標局(USPTO)的兩階段標準(Two-Step Test)審查。 綜上,可整理出這個公式: 可專利性=專利適格(§101+兩階段標準)+實用性(§101)+新穎性(§102)+進步性(§103) 觀察美國專利法教科書的編排方式,亦可了解思考脈絡:先介紹專利適格,再依序介紹實用性、新穎性、進步性。另,「實用性」在作為名詞時是採“Utility”一字,而非“Usefulness”,這兩個詞微妙的差異是前者具「有價值的(Beneficial)」之意涵,也呼應Justice Story在 Bedford v. Hunt對「實用」(Useful)經常被援引的解釋:「要能在社會中做出有價值的(Beneficial)應用,不可以是對道德、健康、社會秩序有害(Injurious)的發明,也不可以是瑣碎(Frivolous)或不重要的(Insignificant)。」
歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。