美國聯邦貿易委員會(下稱FTC)於2024年4月23日通過「禁止企業簽訂競業禁止契約」最終版本的規定(以下稱「最終規定」) ,FTC認為「簽訂或執行競業禁止契約」違反《聯邦貿易委員會法》(Federal Trade Commission Act)第5條之防止不公平競爭之違法手段之規定。最終規定所禁止簽訂競業禁止契約的對象廣泛,包含獨立承包商、為營利企業工作的員工,並將可能取代其他規範競業禁止契約效力之州法。不過,尚有部分情形將排除最終規定的適用,如: (1)公司與高階主管的既有競業禁止契約仍屬有效,而高階主管被定義為「年收入超過 151,164 美元(約新臺幣4,927,492元)且擔任決策職位」的員工,如總裁、首席執行長或其他擁有企業重大決策權的職位。 (2)允許出於善意收購企業的雙方簽訂競業禁止契約。 (3)因FTC對於某些產業無監管權,因此該等產業不適用於禁止簽訂競業禁止契約的最終規定,如非營利組織、銀行、保險公司以及航空公司。 FTC指出最終規定於美國聯邦公報上公布120天(約4個月)後生效,並要求現已簽訂競業禁止契約之雇主負有通知義務,雇主須透過數位(電子郵件或簡訊)或紙本方式,明確地通知現任、前員工,其既有的競業禁止契約即將失效。 但美國商會(U.S. Chamber of Commerce)已聲明表示該最終規定有超出FTC管轄範圍之疑慮,故後續可否執行最終規定,仍有待密切關注。 為因應FTC大範圍禁止簽訂競業禁止契約之法制方向,建議公司可參考資策會科法所發布之「營業秘密保護管理規範」以系統性方式檢視不同面向的既有管理作法,如人員面、內容面等,以落實對於營業秘密的保護。 1.關於文件的管理建議 先盤點紙本及數位機密文件;再設定文件之接觸權限。 2.關於人員的管理建議 留意人員的智財教育訓練;人員的保密或智財權歸屬契約,確保契約約定已納入公司想保護的機密資訊,比如客戶或供應商名單及聯絡資訊、產品規格、製程等;以及離職管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。
美國航空公司控告Google銷售不當的關鍵字廣告美國航空公司(American Airlines, 以下簡稱AA),世界最大的航空公司,控告Google私自銷售包含AA的名稱或註冊商標之搜尋關鍵字 AA日前向德州北區地方法院提出訴訟,控告Google將關於AA的名稱或註冊商標的搜尋關鍵字,如「American Airlines」或「AA.com」,銷售給其它公司作為廣告用途。 AA表示,Google甚至將該等搜尋關鍵字銷售給AA的競爭者。換言之,當使用者於Google搜尋引擎查詢關於前述之AA名稱或註冊商標之關鍵字時,Google除了提供相關連結之外,也可能會在「贊助者連結」中提供AA競爭者的連結,而引導使用者前往其競爭者的網頁。 AA於聲明中指出:「我們希望能減輕此類行為所造成的損害」。截至目前為止,AA並未透露求償金額等細節。 Google則在其聲明中指出:「我們相信本公司的商標政策已經在商標所有人的權益以及消費者的選擇之間取得適當的平衡,並且我們的立場在相關案例的判決中已經被證實是合法的」。
日本學術會議建議因應疫情強化ICT建設和推動數位轉型日本學術會議於2020年9月15日提出「邁向感染症對策與社會改革之ICT基礎建設強化和數位轉型推動」(感染症対策と社会変革に向けたICT基盤強化とデジタル変革の推進)法制建議。新冠肺炎疫情突顯出日本ICT基礎建設不足和急需數位轉型之問題,日本學術會議從「醫療系統之數位轉型」、「社會生活之數位轉型」和「資安與隱私保護」等觀點提出建議,希望能在確保資安及隱私的前提下,達到防止感染擴大與避免醫療崩壞,以及減少疫情對社會經濟影響等目標。針對「醫療系統之數位轉型」,未來應建立預防和控制感染症之綜合平台,統一地方政府感染資訊之公開內容、項目,檢討遠距醫療和數位治療法規,進行相關法制環境和基礎設施之整備;針對「社會生活之數位轉型」,日後應積極推動遠距醫療、遠距工作和遠距教育,並進行所需基礎建設、設備和人才培育之整備;針對「資安與隱私保護」,除檢討建立利用感染者個人資料,以及可知悉個人資料利用狀況之制度,亦應擴大及強化信用服務(trust service)和感染資訊共享系統等措施。
世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。 包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。 在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。 綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。