美國聯邦貿易委員會(The Federal Trade Commission, FTC)於2023年1月5日提出聯邦規則彙編(Code of Federal Regulations, CFR)之修正草案,其基於競業禁止條款(Non-Compete Clauses)將阻止員工離職及員工之競爭、降低員工的薪資、阻止新企業之形成及阻礙創新等立法目的,擬禁止僱用人及受僱人間約定競業禁止條款及使現有的競業禁止條款歸於無效。 美國亦有相關報導提到員工流動於技術領域尤為常見,因技術領域之企業對營業秘密高度重視,故對於員工離職到競爭對手會特別留意,例如加州的許多企業(尤其是位於矽谷之企業)會與員工簽署保密合約規範對於機密資訊的處理,部分合約甚至包含競業禁止條款以限制員工於離職後至競爭對手處工作,不論係保密合約或競業禁止條款,其目的均係延遲或避免員工於離職後帶走公司敏感資訊並將其用於對前僱主不利之用途。 聯邦規則之修正草案一旦通過,未來美國的企業將不得再以約定競業禁止條款之方式限制離職員工至競爭對手處工作,但企業仍可透過在員工離職前或離職後採取相關措施,盡早發現並降低離職員工竊取公司敏感資訊的風險,可採取的措施例如: 1.留意員工離職前是否有未經授權或為完成工作以外之目的複製或存取公司的資料之行為,意即,這些蒐集來的資訊是否將用於新公司的工作(如改良競爭對手的產品、擴大競爭對手的客群等); 2.對員工個人工作設備(如:公司提供之筆電及手機)或網路存取紀錄等進行調查,檢視是否有異常檔案存取紀錄或異常行為(例如是否突然大量刪除/複製檔案); 3.了解員工的離職原因及於離職後的規劃——可以了解員工未來可能從事的職業、就職的企業以調整離職前調查的程度; 4.留意員工於找到新雇主後是否仍持續使用公司的營業祕密——新雇主亦須留意的是,新進員工是否仍持續使用前公司的營業秘密,以避免公司被訴。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。
美國和歐盟合作推動統一優良臨床試驗規範美國聯邦食品藥物管理局(U.S. Food and Drug Administration)和歐洲醫藥局(European Medicines Agency)在2009年7月31日共同公佈了一項名為優良臨床試驗行動(Good Clinical Practices Initiative)的合作計畫,期能藉由該計畫,使得不論是在美國或歐盟,所有臨床試驗之執行,都有遵守相同且適當的規範。 在醫藥品上市申請的實務中,因為大部份的醫藥品都會企圖向廣大的歐美市場扣關,同樣的臨床試驗通常也會分別提交到兩地的醫藥品上市許可申請程序中。故若兩地主管機關可以合作訂出統一的優良臨床試驗規範,則可避免因重複審查所造成的資源浪費,申請者也可以因為統一的規範而加速其在兩地審查的程序,且在跨國資訊交流整合下,也可為臨床試驗研究的參與者提供更好的安全基礎。 此次美國聯邦食品藥物管理局,和歐洲醫藥局合作之優良臨床試驗行動的幾個主要目標如下: 一、定期交換有關優良臨床試驗之實務操作資訊:交換的資訊包括(1)彼此的優良臨床試驗(Good Clinical Practices, GCP)查核計畫,以了解有那些臨床試驗或地點是對方會去查核的,就不需要重覆查核;(2)彼此受理的上市申請案件中,有關GCP的如科學上的建議或上市申請的結果等;以及(3)彼此執行GCP查核之結果。二、共同執行優良臨床試驗審查:藉此了解對方之GCP查核程序,並進而信賴彼此之程序,也藉由共同執行時之交流,提昇彼此查核之技巧,及精進查核之程序。 三、合作增進優良臨床試驗規範:藉由對彼此GCP相關法規、指導原則、和政策等的交流及了解,找出現有規範中可予以改進之處,以增進臨床試驗研究的品質。 自2009年9月1日起,此項合作行動將首先開始一個為期18個月的先期行動,在此先期行動結束後,兩主管機關將會共同發布一份包含其整體行動計畫,及雙方就各自既有法規或程序應予以調整部分。
歐盟執委會啟動《關於標示與標籤AI生成內容之行為準則》之相關工作,以協助生成式AI之提供者與部署者履行其透明度義務2025年11月5日,歐盟執委會啟動《標示與標籤人工智慧生成內容之行為準則》(a code of practice on marking and labelling AI-generated content,下稱行為準則)之相關工作,預計將於2026年5月至6月間發布行為準則。此行為準則與《歐盟人工智慧法案》(EU AI Act)之透明度義務規定相關。這些規定旨於透過促進對資訊生態系的信任,降低虛假訊息、詐欺等風險。 《歐盟人工智慧法案》第50條第2項及第4項之透明度義務,分別規定 1. 「『提供』生成音檔、圖像、影片或文本內容的AI系統(包括通用AI系統)」的提供者(Providers),應確保其輸出係以機器可讀的形式標示(marked),且可被識別屬於AI所生成或竄改(manipulated)的內容。 2. 「『使用』AI系統生成或竄改以構成深度偽造之影像、音訊或影片內容」的部署者(Deployers),應揭露該內容係AI所生成或竄改。 前述透明度義務預計於2026年8月生效。 後續由歐盟AI辦公室之獨立專家透過公眾資訊與徵選利害關係人意見等方式,推動起草行為準則。此行為準則不具強制性,旨於協助AI系統提供者更有效地履行其透明度義務,且可協助使用深偽技術或AI生成內容的使用者清楚地揭露其內容涉及AI參與,尤其是當向公眾通報公共利益相關事項時。 AI應用蓬勃發展,同時AI也可能生成錯誤、虛構的內容,實務上難以憑藉個人的學識經驗區分AI幻覺。前文提及透過標示AI生成的內容,以避免假訊息孳生。倘企業在資料源頭以標示等手段控管其所使用之AI的訓練資料,確保資料來源真實可信,將有助於AI句句有理、正向影響企業決策。企業可以參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,從資料源頭強化數位資料生命週期之管理。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)