人工智慧作為一前瞻性技術,運用於公部門,可以降低成本、提高管理品質、節省基層公務人員時間,整體改善政府公共服務。然而AI技術進化以及市場發展過於快速,現有採購類型沒有可以直接適用AI採購的判斷標準範本。因此,英國人工智慧辦公室(Office for Artificial Intelligence)與產官學研各界進行研商後,於2019年9月20日發表人工智慧採購指南草案(Draft Guidelines for AI procurement),作為公部門採購AI產品與服務之準則。該指南旨在加強公部門採購人員能力、協助採購人員評估供應商,讓廠商可以隨之調整其產品和服務內容。
該指南提供採購人員規劃政府AI採購的方向,包含招標、公告、評選、決標到履約。但指南強調無法解決採購AI產品與服務時遇到的所有挑戰。
指南內容簡述如下:
本文為「經濟部產業技術司科技專案成果」
為表明促進公平競爭及保護境內消費大眾利益之決心,美國聯邦貿易委員會(Federal Trade Commission;簡稱FTC)於今(2010)年7月27日時,正式提出一項聲明,其內容,除詳細說明其近來為促進競爭及保護境內消費大眾利益所為之各項工作外,亦正式將『終止過往於品牌藥廠與學名藥廠間所為之給付遲延訴訟和解協議』列為『最優先』處理之反競爭事項」。 根據FTC所蒐集之資料顯示,單自今年元月份起算,至今,於美國境內各大品牌藥廠及學名藥廠間所簽訂之訴訟和解協議中,已有21件藥品專利訴訟協議,因涉及以「補償金」(Compensation)來作為和解條件,而成為FTC進一步調查之對象;此外,與前一會計年度中所達成之訴訟和解協議相較,除於數量上,呈現有增無減之趨勢外;FTC方面也證實,在各方藥廠採取另一類藍海策略且不再相互為市場競爭之前提下,此類和解協議已為境內各藥品廠商減省下約90億美金之競爭成本。 而進一步觀察FTC於近期內蒐集之新資訊後顯示,除以「補償金」模式來作為達成訴訟和解協議之條件外,可能還存在著另一種形式之訴訟和解協議;亦即,於藥廠間新近所簽定訴訟和解協議中,並不必然包含由品牌藥廠為一定金額給付之項目;根據實務統計,於2010年美國會計年度前9個月內所達成之各訴訟和解協議中,確實有近75%之訴訟和解協議,於協議條件或項目上,並未包含任何有關品牌藥廠對競爭學名藥廠和解金之給付;對此,FTC表示:「從各種跡象及數據顯示,目前於各藥廠間,確已衍生出數種新型態且具潛在反競爭可能之訴訟和解協議」;故從FTC將持續致力對此類不當訴訟和解協議為反競爭調(審)查之角度來看,未來,勢必將面臨更多且更嚴苛之挑戰。 最後,Leibowitz強調:「此類不當訴訟和解協議如同正快速擴散之傳染病一般,若完全聽任其發展而不加處理,日後定有越來越多藥品之上市,將受其影響;同時,就藥品價格之決定,最終亦將與自由市場競爭機制脫鉤;如此,除將間接導致公眾近用低價藥品困難度之提升外,亦將一併造成病患長期用藥成本負擔之增加」。
美國擬推聯邦私密隱私保護法案,防治情色報復將邁向聯邦法位階美國加州第14屆國會選區眾議院議員Jackie Speier於2016年7月中旬提出私密隱私保護法案(Intimate Privacy Protection Act, IPPA),本法案之草擬耗時兩年多,以聯邦法的法律位階之姿誕生,在美國各州政府紛紛將違反本人意願散布性隱私內容入罪化的高峰期,可望能統一各州州法分歧的法律落差。由於目前全美已有超過半數的州政府已分別頒布所謂的情色報復法案(Revenge Porn Act),造成各地方政府就此行為之定義和條文適用有所歧異,對無國界的網路生態來說,產生許多法律適用之衝突和迥異。 私密隱私保護法案規定,違反本人意願散布性隱私內容者,將處五年以下有期徒刑,得併科罰金,適用主體包含具有侵害故意和意圖藉此營利之人。然而,有反對聲浪認為,由於條文僅限欠缺本人同意,但未限於行為人具有侵害他人的故意,故認為此聯邦法位階的法案適用範圍過於廣泛,恐侵害憲法保障的言論自由。美國公民自由聯盟(American Civil Liberties Union, ACLU)長期關注此項法律議題,要求構成要件應限於行為人具有侵害他人之故意,否則將嚴重影響媒體產業。私密隱私保護法案條文內容特別明列排除適用之條款,如因法律或訴訟執行上的需要、基於公共利益或合法的商業利益之情事,以及網路服務提供者的豁免責任(意圖藉由散布性隱私內容而營利之網路服務提供者除外)。目前本法案同時獲得多數民主黨議員、共和黨議員,以及網路服務提供者巨擘Facebook和Twitter的支持。
英國技術移轉政府辦公室發布2023至2024年之年度施政報告英國技術移轉政府辦公室(Government Office for Technology Transfer, GOTT)於2022年4月成立,主要解決公部門研發成果,即「知識資產」(knowledge assets, KA),因面臨運用不足及管理等困境,並積極推動公部門衍生新創政策,促進KA產業化。 GOTT會依研發法人的需求及經驗程度,提供個別支援性服務,如協助較無KA運用經驗之法人設置KA運用工作規則及管理方式等直接技術性指導,亦提供較有KA運用經驗之法人額外投資資金及其他資源挹注。 GOTT於2024年7月5日發布過去一年(2023年4月1日至2024年3月31日)之施政報告,主要重點簡述如下: (1)對「玫瑰書」(the Rose Book),即政府KA管理指引,提出細部操作指引,如:「PSB內KA管理負責人角色任命指引」、「協助PSB制定KA管理策略指引」、「智慧財產權及其機密性指引」、「附件A–知識資產類別與類型」、「附件B–KA評估工具」、「附件C–商業化路線」、「附件D–獲取KA指引」、「附件E–人才流動指引」以及「申請KA補助基金指引」等。 (2)推出首個政府對公部門創新研發之市場驗證加速器計劃,稱為「公共研究創新和市場加速器」(the Public Research Innovation and Market Accelerator, PRIMA),協助公部門創新者測試其研發構想、產品及服務是否有市場發展潛力。 (3)發布「公部門衍生新創公司研究」(Public Sector Spinouts Study),為英國政府首次對公部門推動衍生新創政策及制度進行審查,顯示英國推動上遇有許多推動障礙,研究最後對英國政府及GOTT提供多項施政建議。
因應使用「生成式AI(Generative AI)」工具的營業秘密管理強化建議2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)