美國在2019年12月20日建立一支新的軍種—太空軍(Space Force)。這代表以往存在於科幻的宇宙部隊將躍然於現實,但美國太空軍可能會在商標戰爭中,輸給Netflix的喜劇影集「Space Force」。Netflix早於美國政府在歐洲、澳洲、墨西哥等地取得「Space Force」商標,但其並非為搶先美國政府進行註冊,而係為能銷售相關商品。
美國商標法採取先使用主義,即使後使用者先進行註冊,先使用者還是可以取得商標。Netflix自2019年初即開始即在全球廣泛採用「Space Force」做為商標,基本上「Space Force」之商標權應歸屬於Netflix。美國空軍則是在同年3月以「Space Force」申請商標做為一般的使用。然而,美國政府長期以來也有諸多關於軍事資產涉及商標保護之案例,例如派拉蒙影業(Paramount Pictures)在1995年至2005年間六次申請註冊「JAG」(Judge Advocate General)商標,但政府立場並未特別反對。
美國國防部(簡稱:DOD)針對商標授權使用,於商標許可指南(DOD Trademark Licensing Guide)中,說明對於美國軍隊徽章及標緻之使用方式,並於2007年推出了國防部品牌和商標許可計畫(DoD Branding and Trademark Licensing Program)。在此之後,美國海軍陸戰隊開始向大部分銷售標示有「USMC」T恤之電商,請求不得再銷售標示有相關文字之T恤。回到本事件,美國太空軍發言人表示,對於與Netflix可能存有商標爭議並不知悉,但希望Netflix能延續該節目,以做為良好的宣傳。
近年來興起以UBER為首的「零工經濟」(Gig Economy)議題。按國際勞工組織(International Labor Organization, ILO)的說明:所謂「零工經濟」,是透過數位勞工媒合平台,將分散於各地的勞力資源,按需求(On-Demand)調度到特定地點以執行任務。這些被調度的勞工即為「零工」,多半從事服務性質或任務性質單純且零碎(Micro-Task)的工作,如代駕、代辦雜務、居家打掃。 面對零工經濟的風潮及其衍生的勞資問題,各國積極針對零工經濟推出對應政策。舉例而言,美國加州政府於2019年9月18日通過《AB 5法》(California Assembly Bill 5 (2019)),擴大「正式員工」(Employee)的解釋範圍,並要求資方必須對於「獨立承攬人」(Independent Contractor)之認定負舉證責任。美國國會亦推出《保護零工經濟法》草案(Protect the Gig Economy Act of 2019)。國際組織方面,國際勞工組織從2015年起,發布多份研究報告,更在2017年8月成立「國際勞工組織全球委員會」(ILO Global Commission on the Future of Work)。 國際勞工組織倡議各國設立社會福利專法保障所有零工的基本工資,國際勞工組織指出:美國於2017年約有5,500萬名零工(Gig Workers),佔整體勞動力的34%,2020年可能會成長到43%。然而,僅50%的零工獲得應有的報酬。觀察2017年的數據,零工的平均時薪是4.43美元,假設考量閒置的時間,平均時薪僅剩3.31美元,時薪中位數是2.16美元。關於零工集會結社自由方面,零工已慢慢開始有了組織性的工會,然而,零工向資方爭取權益時,面對傳統工會較不會存在的難題:32%的零工僅為補貼既有正職工作,零工間交流少、對於權益難成共識,無法進而凝聚集體訴訟的力量。再者,勞工運動以實體為首選,然而零工大多透過「數位平台」,數位平台常有總部在境外的現象,零工較難有特定集會地點,甚至難辨識出談判的對象。最後,平台業者多數聲稱零工僅為「獨立承攬人」,然而,平台業者和零工間的法律關係是否為「承攬關係」尚有待商榷,各國政府及國際組織仍在研擬討論階段。
美國基改食品標示新發展-強制標示與否的拔河 IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。