電子遊戲龍頭ZeniMax於2014年起訴虛擬實境公司Oculus VR,稱Oculus創辦人Palmer Luckey為改善初代虛擬實境體驗機「Rift」提供原型予在ZeniMax任職的John Carmack,嗣Carmack在該機器增加ZeniMax所有之虛擬實境專用關鍵軟體,ZeniMax就Luckey取得該公司軟體之內容與Luckey簽立保密協定。其後Luckey為募集Oculus資金,未經ZeniMax授權及參與,開始展示含有ZeniMax專有軟體之「Rift」,最後Facebook收購Oculus。
ZeniMax以Oculus、Luckey、Brendan Iribe(Oculus另一創辦人)、Carmack為被告,主張其等盜用營業秘密、侵害著作權、違反保密協定、不公平競爭、不當得利、商標侵權(包括未經許可使用以及錯誤指示商品來源),並列Facebook為共同被告主張其於收購Oculus即知情,連帶給付20億美元之損害賠償及40億美元之懲罰性賠償。本訴訟於2017年2月1日經陪審團認定Oculus違反保密協定、侵害著作權、錯誤指示商品來源侵害商標等共計賠償3億美元,Luckey及Iribe因錯誤指示侵害商標共計賠償2億美元。
以本案來看,Oculus及其創辦人最主要是未經ZeniMax同意而公開使用ZeniMax的程式碼且宣稱為其公司產出,關於這個部分公司未來在有運用他人公司技術之情形宜透過協商,以共同發表之方式避免侵害創作公司之權利;另創作公司雖未公開技術,然可透過保密協定使營業秘密獲得完善的保障;至於Facebook的部分更凸顯公司於併購前尤應強化盡職查核(Due Diligence),以免訟累。
本文同步刊登於TIPS網站(https://www.tips.org.tw)」
韓國最高法院2023年12月8日宣告著名積木玩具樂高公司(LEGO Juris A/S)提起撤銷註冊商標「LEGOCHEMPHARMA」的上訴審判結果,確認韓國製藥商樂高生技有限公司(下稱LegoChem Bio)的註冊商標無效,因該註冊商標包含LEGO字樣,存有減損樂高公司「LEGO」商標識別性之虞,構成侵害商標權。 科斯達克上市公司LegoChem Bio於2015年11月申請「LEGOCHEMPHARMA」商標註冊,用以提供藥物開發服務,隨後樂高公司提出異議,聲稱該商標與其「LEGO」商標近似,該商標因此被駁回。據此,LegoChem Bio向智慧財產權審判及上訴委員會(IPTAB)提出上訴,並於2018年9月取得商標註冊。其後,樂高公司於2020年3月向智財法院提起訴訟,主張商標權受到侵害,請求撤銷「LEGOCHEMPHARMA」商標註冊,法院判決該註冊無效,LegoChem Bio因此向最高法院提起上訴。 首先,最高法院認為「LEGOCHEMPHARMA」(下稱系爭商標)的關鍵識別部分為「LEGO」,而「CHEM」和「PHARMA」僅是化學和製藥領域的名稱,沒有特殊的識別性。其次,依韓國《商標法》規定,第34條第1項第11款規定「可能與消費者高度認識的他人商品或服務造成混淆誤認,或損害其識別性或聲譽之虞的商標」不得註冊商標。最高法院認為系爭商標與樂高公司的高知名度和高識別性商標「LEGO」非常近似,被告LegoChem Bio申請註冊系爭商標之目的可能是為引起與先使用商標「LEGO」之聯想。因此判決系爭商標註冊無效,且應視為有損害著名商標識別性之虞。 本案攻防戰可看出商標取得、保護對於品牌之生存發展具有重要影響,有關品牌發展各階段應留意的風險與建議作法,企業可參考資策會科法所創意智財中心出版的商標專書「TOP品牌商標管理術!新創業到老字號都適用」,可藉由該書收錄的經典國內外品牌商標管理方式與時事案例,跟上品牌商標管理趨勢,其中的品牌商標管理工具,亦得直接應用於實務工作,輔助建置品牌商標管理機制,保護品牌獨特性、穩固品牌競爭力,為品牌經營帶來加乘效益。 本文同步刊登於TIPS網(https://www.tips.org.tw)
日本內閣官房提出未來投資戰略報告加速機器人實用及活化日本內閣官房日本經濟再生總合事務局(内閣官房日本経済再生総合事務局)在2017年6月9日第10次「未來投資會議」中提出未來投資戰略2017報告(未来投資戦略2017~Society 5.0 の実現に向けた改革~),在成長的戰略成果(5)日本第四次產業革命及新經濟的展開中,分別對於機器人實用、物聯網(IOT)、大數據(BIG DATA)、人工智慧(AI)等提出成果及未來計畫。 機器人加速實用化:首先,機器人廣泛利用在商業設施、機場等日常生活空間,於2016年9月羽田機場設置機器人實驗室「Haneda Robotics Lab」,利用機器人改善服務並補充勞動力。有關打掃清潔、協助移動、查詢服務等17種機器人,將進行實證實驗。而路面協助行走型機器人「RT.1」已經完成,於2015年生活協助型機器人之安全性得到國際認證,其後發展之「RT.2」將使用於長期照顧層面。其次,開發農業使用之自動駕駛拖車,並提供工作實際狀況和土壤狀況之電子管理服務。今年6月開始商業化之自動駕駛顯示器,可以監控自動駕駛耕作機器進行自動耕作等。在物流管理方面,於2018年將於山間部等地區進行無人機的包裹遞送,2020年將在都會區全面無人包裹遞送。預計將與日立等相關公司,進行物流管理系統之開發及活用福島機器人測試場域。
美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。 為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。