隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。
一、問責制度(Accountability)
由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。
二、價值協同(Value Alignment)
人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。
三、可理解性(Explainability)
人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。
該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。
歐盟執委會於2022年2月8日提出《歐洲晶片法案》(European Chips Act),以確保歐盟在半導體技術和應用的供應鏈安全、彈性和技術領先地位。近來全球半導體短缺,迫使汽車及醫療保健設備等眾多領域工廠關閉,部分歐盟成員國的汽車產量於2021年下降三分之一,顯示在複雜的全球地緣政治背景下,半導體價值鏈極度依賴數量有限的參與者。《歐洲晶片法案》將動員公共及私人投資歐洲半導體產業,金額超過430億歐元;並制定政策措施以預防、準備、預測和迅速應對未來任何供應鏈中斷情形,幫助歐盟實現2030年將現行晶片市場占比提升至20%的願景。《歐洲晶片法案》共分成八大章節,涵蓋歐洲晶片倡議、供應安全、監測和危機應對、治理模式、保密處罰及程序等議題。其中《歐洲晶片法案》主要由三大支柱組成,規範內容如下: 支柱一:歐洲晶片倡議(法案第3條至第9條)。歐洲晶片倡議將對現有關鍵數位技術重新進行戰略定位,以強化歐盟成員國和相關第三國及私營部門的「晶片聯合資源承諾」。歐盟預計將投入110億歐元用於加強研究、開發和創新,以確保部署先進半導體工具、原型設計實驗產線、測試和用於創新生活應用的新設備,培訓員工深入了解半導體生態系統和價值鏈。 支柱二:供應安全(法案第10條至第14條)。建立半導體「集成生產設施(Integrated Production Facility, IPF)」和「開放歐盟代工廠(Open EU Foundry, OEF)」,透過吸引投資與提高生產能力來建立供應安全的新框架,用以發展先進節點創新及節能晶片。此外,晶片基金將為新創企業提供融資管道,協助技術成熟並吸引投資者;投資歐洲基金(Invest EU)將設置專屬半導體股權投資的選項,以擴大歐洲半導體研發規模。 支柱三:監測和危機應對(法案第15條至第22條)。建立歐盟成員國和執委會間的協調機制,用以監測半導體供應、估計需求和預測短缺。透過蒐集企業的關鍵情報能發現歐洲主要弱點和瓶頸,從而監控半導體價值鏈穩定。歐盟將彙整危機評估報告並協調各成員國採取歐盟建議的應對方案,以便共同做出迅速正確的決定。
美國化學營業秘密哪些必須揭露?哪些可以保密?為因應有害化學物質所產生之公安事件,2015年6月8號美國職業安全管理局(Occupational Safety and Health Administration,簡稱(OSHA))發佈一項措施,針對具危險性化學物質之運輸過程,規範處理程序,包括製造商須提供物質安全數據表,以及可能具有風險的有害物質說明書等。 為此,OSHA考量到此將影響化學製造商營業秘密保護,遂提出判斷準則,以釐清對於化學製造商而言,何種情況將構成營業秘密,包括:(1)在一定的程度內該資訊是否已被外界所知;(2)在一定程度內,該資訊對於員工或其他參與者是否已知;(3)是否有一定程度對於該資訊內容進行保護措施;(4)該資訊對於競爭對手是否有價值;(5)是否投入大量時間和金錢開發該資訊;(6)該資訊對企業而言是否得被他人簡易取得與複製。 進而在符合上述營業祕密要件時,企業即無須對一般員工(非研發工程師)揭露化學公式等內容,其中包括一般操作人員或者運輸人員等。然而考量到此等人員接觸化學物質情況頻繁,倘若操作人員或者運輸人員工作過程中,因有害但屬營業祕密之化學物質造成意外傷害,為平衡公眾安全與營業秘密之保障,OSHA要求化學製造商必須立即提供醫護人員有害化學物質方程式等內容,但可要求醫護人員簽訂保密協議,藉此兼顧公安與營業秘密之保障。
韓國公共行政安全部制定《公部門AI倫理原則》草案,以提升民眾對公部門應用AI之信任2025年11月,韓國公共行政安全部(Ministry of the Interior and Safety,下稱MOIS)於新聞稿宣布制定《公部門AI倫理原則》草案,追求公益、公平無歧視、透明、問責明確、安全性及隱私保護等六大核心價值,旨於促進創新、提升民眾對公部門應用AI之信任。 一、適用範圍 《公部門AI倫理原則》草案適用對象為公部門,包含中央、地方政府機關等,其性質為不具強制力的指引。 二、檢核表分三階段漸進式管理 《公部門AI倫理原則》草案依AI 應用的複雜程度分為三階段漸進式管理,設計最高達90個細項的檢核表(Checklist),惟目前尚未公開詳細內容: (一)第一階段:基礎導入(AI基礎應用) 針對技術引進的初步活用階段,共包含31個檢核項目,旨在建立基礎的倫理合規防線。 (二)第二階段:進階應用(AI決策支援) 適用於AI提供資料分析與建議以輔助人員進行行政決策的情境。隨著影響力提升,檢核項目擴增至74個,強化透明性與責任性的審查。 (三)第三階段:深度融合(AI自主決策) 針對AI具備高度自主決策權的高風險情境(如自主化服務或複雜判斷),執行最嚴密的倫理檢查,共達90個檢核項目。 建議公部門依檢核表自行檢查,並依結果建立「調整與回饋」的循環機制,以因應不斷變化的技術環境。 MOIS部長指出,未來將進一步蒐集學界意見以完備倫理原則,並開發一套AI倫理原則之培訓課程,確保一線能落實執行這90個檢核項目,保障人權與基本權利。 由於目前未見90個檢核項目內容,值得持續追蹤後續進展。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
營業秘密管理概要