美國奧勒岡州聯邦法院於今年(2016)5月命令鞋帶編織廠商Enter Play Sports Inc.(以下簡稱Enter Play Sports),簽訂與運動品牌商Nike Inc.(以下簡稱Nike)於去年(2015)7月所達成的和解協議及相關文件。
2012年,Nike委託Enter Play Sports製作一項具有3D編織鞋面的運動鞋樣品,雙方並於同年12月簽訂保密協議。Nike指出,Enter Play Sports其後違反保密協議,分別於2013年5月及6月提出專利申請。Nike認為Enter Play Sports所提出的專利申請含有Nike的機密資訊,其中至少包括3D編織鞋面的概念及其製造方法。因此,Nike於2014年向Enter Play Sports提起訴訟,控告其違反雙方的保密協議以及奧勒岡州營業秘密法(Oregon Trade Secret Act)。
Enter Play Sports表示,過去並沒有任何關於運動鞋編織鞋面的相關經驗,亦沒有開發或製造運動鞋編織鞋面的計畫。而Nike於樣品開發流程中,曾提供Enter Play Sports多項與3D編織鞋面相關的草圖及文件。然而,Enter Play Sports於訴訟中提出反訴,認為其專利申請中並未包含保密合約中的任何機密資訊,或是機密資訊已落在保密合約的除外條款中,因而尋求法院的確認。
起訴後一年,即去年,Nike與Enter Play Sports同意藉由司法和解會議(Judicial Settlement Conference)達成和解協議。Enter Play Sports於和解會議中承認, Enter Play Sports的專利申請內容與Nike鞋子重疊之處屬Nike之智慧財產,其餘部分則各自歸屬於提出申請者。
司法和解會議結束後,Enter Play Sports卻以雙方未達成合意為由拒絕簽訂和解協議及相關文件。然而法院認為,於司法和解會議中雙方已決定由司法官(U.S. Magistrate Judge)的判斷作為和解決議,因此於今年5月命令Enter Play Sports簽訂和解協議及相關文件。
「本文同步刊登於TIPS網站(https://www.tips.org.tw)
美國德州第一上訴法院於2023年8月的一項裁決強調了以下重點—即便企業的智慧財產權戰略是圍繞在專利申請而建立的,仍應證明其有在專利公開前採取到位的營業秘密保護政策。 在FMC Technologies, Inc. v. Richard Murphy and Dril-Quip, Inc.一案中,FMC是一家石油與天然氣公司,而Murphy是其前首席工程師,可接觸FMC公司重要研發技術。兩者的關係於2018年惡化,同年12月FMC公司提出了ITW系統(orientation-free subsea tree system)的專利申請,Murphy則於隔年5月收到Dril-Quip公司的錄用通知。離職時Murphy有簽署一份協議,承認其有義務為FMC公司持有的專屬資訊保密,並已將所有與工作相關的資訊歸還。 Murphy於Dril-Quip公司被任命負責開發與ITW系統幾乎相同的競爭產品。2020年5月,Dril-Quip公司於海上技術會議發布其下一代海底採油系統(VXTe Subsea Tree)的相關內容,並宣布將商業化生產。據此,FMC公司控訴Murphy使用其花費了多年時間和數百萬美元開發的營業秘密資訊。Dril-Quip公司則辯稱FMC公司所謂的營業秘密可輕易透過一般管道查明,且其未採取合理的努力來防止營業秘密外洩。 在判斷FMC公司是否有採取合理保密措施時,德州第一上訴法院針對其於專利尚未公開及等待核准審定期間是否有採取合理的努力進行審查,並發現下列情形: 1. FMC公司並未根據有存取該機密資訊需求的人設定權限,反而將其工程資料庫開放給所有公司內部的工程師,讓他們都可以遠端存取相關資料。 2. FMC公司並未禁止員工將公司的機密文件複製到外部伺服器上。 據此,德州第一上訴法院認定FMC公司於專利公開前未妥善保護其營業秘密,並認為被告Murphy未不當使用其營業秘密。最終,德州第一上訴法院判被告Murphy勝訴。 由上述裁決可以發現,企業在專利公開前仍應採取營業秘密保護政策,包括:(1)對機密資訊存取的權限控管、(2)規範對機密資訊的使用程序、規定等,以避免在訴訟中失利。關於前述之管理措施,可以參考資策會科法所創意智財中心發布的《營業秘密保護管理規範》,以了解如何降低自身營業秘密外洩之風險,並提升競爭優勢。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。 包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。 在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。 綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。
國防訓儲制將有重大變革,研發納入替代役行政院跨部會會議審查通過替代役條例修正草案,將研發役納入替代役,取代現行的國防訓儲制,惟研發替代役規劃內容並不等同於現行國防訓儲制,例如:國防訓儲限制預官申請,但研發替代役並未限制,此將使海外人才、海外小留學生等符合科技研發資格的碩博士,均可申請回台進入科技廠商服研發替代役。 此外,國防訓儲制在入伍短暫基礎訓練後,就如同後備軍人進入民間科高科技企業領一般工程師高薪,並享有分紅、配股,被外界抨擊為不公,未來研發替代役將改革這項缺點。將來申請服研發替代役者,在一年多的法定義務役期過後,超過的服役期限替代役男始可領取一般工程師薪水。 研發替代役役期除一年四個月法定義務役外,最長可申請延長三年,但期限要報院核定,具有彈性。至於科技大廠最關心的員額數量,仍將依內政部替代亦審議委員會審查各需用機關替代議員額需求要點第3點進行審查並視兵源調度,然員額可望逐年提升。 內政部並將進一步訂定研發替代役申請辦法,使海外人才可透過網路申請,預料研發替代役將可吸引海外學人歸國貢獻研發,對提升產業競力將有助益。替代役修正修正草案送行政院院會通過後,將送交立院審議,行政院表示會積極爭取法案在本會期過關,最快九十六年可實施。
歐盟執委會啟動《關於標示與標籤AI生成內容之行為準則》之相關工作,以協助生成式AI之提供者與部署者履行其透明度義務2025年11月5日,歐盟執委會啟動《標示與標籤人工智慧生成內容之行為準則》(a code of practice on marking and labelling AI-generated content,下稱行為準則)之相關工作,預計將於2026年5月至6月間發布行為準則。此行為準則與《歐盟人工智慧法案》(EU AI Act)之透明度義務規定相關。這些規定旨於透過促進對資訊生態系的信任,降低虛假訊息、詐欺等風險。 《歐盟人工智慧法案》第50條第2項及第4項之透明度義務,分別規定 1. 「『提供』生成音檔、圖像、影片或文本內容的AI系統(包括通用AI系統)」的提供者(Providers),應確保其輸出係以機器可讀的形式標示(marked),且可被識別屬於AI所生成或竄改(manipulated)的內容。 2. 「『使用』AI系統生成或竄改以構成深度偽造之影像、音訊或影片內容」的部署者(Deployers),應揭露該內容係AI所生成或竄改。 前述透明度義務預計於2026年8月生效。 後續由歐盟AI辦公室之獨立專家透過公眾資訊與徵選利害關係人意見等方式,推動起草行為準則。此行為準則不具強制性,旨於協助AI系統提供者更有效地履行其透明度義務,且可協助使用深偽技術或AI生成內容的使用者清楚地揭露其內容涉及AI參與,尤其是當向公眾通報公共利益相關事項時。 AI應用蓬勃發展,同時AI也可能生成錯誤、虛構的內容,實務上難以憑藉個人的學識經驗區分AI幻覺。前文提及透過標示AI生成的內容,以避免假訊息孳生。倘企業在資料源頭以標示等手段控管其所使用之AI的訓練資料,確保資料來源真實可信,將有助於AI句句有理、正向影響企業決策。企業可以參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,從資料源頭強化數位資料生命週期之管理。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)