日本經濟產業省利用巨量資料(BIG DATA)及人工智慧(AI)開發及測試新的經濟指標

  日本經濟產業省利用網絡積累巨量資料(BIG DATA)及人工智慧(AI)技術,應用民營企業相關資訊,開發和測試新經濟指標,分別於2017年7月19日及2018年1月8日公開該指標。為達到及早準確掌握經濟動向,對巨量資料等新資料之利用期待越來越高,政府部門也將利用巨量資料及人工智慧技術等方法,針對統計技術進行改革,。

  新開發之指標有:1.SNS×AI商業信心指數(SNS×AI景況感指数):乃是透過人工智慧抽取關於商業信心的網路文章,並進行情緒(正/負)評估計算指數,期待有效地估計以每日為頻率之商業信心。2.SNS×AI礦工業生產預測指數(SNS×AI鉱工業生産予測指数):利用人工智慧選取有關工作和景氣之網路相關文件,結合「開放數據」之統計等技術,並利用人工智慧「機械學習」之手法,來預測「工業生產指數」。3.銷售點資訊管理系統(POS,point-of-sale)家電量販店銷售趨勢指標(POS家電量販店動向指標):透過收集具有銷售點資訊管理系統(POS)的家用電子大型專賣店的銷售資料,期待可以掌握每一日之「銷售趨勢」。

  新的指數與既存統計指數,如景氣動向指數、中小企業信心指數、工業生產指數、商業動態統計等,其調查週期、公布頻率等,既存指數每月調查公布,新指數則進步至每日調查或每週公布等,在計算及呈現頻率上較既有更為精細。日本政府並設立「Big Data-STATS」網站,以實驗性質公佈上述經濟指標,並廣泛收納民眾意見以提高新指標的準確性。

相關連結
※ 日本經濟產業省利用巨量資料(BIG DATA)及人工智慧(AI)開發及測試新的經濟指標, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7909&no=55&tp=1 (最後瀏覽日:2026/02/13)
引註此篇文章
你可能還會想看
何謂「阿西洛馬人工智慧原則」?

  所謂「阿西洛馬人工智慧原則」(Asilomar AI Principles),是指在2017年1月5日至8日,於美國加州阿西洛馬(Asilomar)市所舉行的「Beneficial AI」會議中,由與會的2000餘位業界人士,包括844名學者專家所共同簽署的人工智慧發展原則,以幫助人類運用人工智慧為人類服務時,能確保人類的利益。   該原則之內容共分為「研究議題」( Research Issues)、「倫理與價值觀」( Ethics and Values),及「更長期問題」( Longer-term Issues)等三大類。   其條文共有23條,內容包括人工智慧的研究目標是創造有益的智慧、保證研究經費有益地用於研究人工智慧、在人工智慧研究者和政策制定者間應有具建設性並健康的交流、人工智慧系統在其整個運轉周期內應為安全可靠、進階人工智慧系統的設計者及建造者在道德層面上是其使用、誤用以及動作的利害關係人,並應有責任及機會去影響其結果、人工智慧系統應被設計和操作為和人類尊嚴、權利、自由和文化多樣性的理想具一致性、由控制高度進階人工智慧系統所取得的權力應尊重及增進健康社會所需有的社會及公民秩序,而非顛覆之,以及超級智慧應僅能被發展於服務廣泛認同的倫理理想,以及全人類,而非單一國家或組織的利益等等。

布拉格提案(The Prague Proposals)

  2019年5月3日,來自全球30多國的政府官員與來自歐盟、北大西洋公約組織的代表於捷克布拉格所舉辦的5G資安會議(Prague 5G Security Conference)中,強調各國建構與管理5G基礎建設時應考慮國家安全、經濟與商業發展等因素,特別是供應鏈的安全性,例如易受第三國影響之供應商所帶來的潛在風險,本會議結論經主辦國捷克政府彙整為布拉格提案(The Prague Proposals),作為提供世界各國建構5G基礎建設之資安建議。   在這份文件中首先肯認通訊網路在數位化與全球化時代的重要性,而5G網路將是打造未來數位世界的重要基礎,5G資安將與國家安全、經濟安全或其他國家利益,甚至與全球穩定等議題高度相關;因此應理解5G資安並非僅是技術議題,而包含技術性與非技術性之風險,國家應確保整體性資安並落實資安風險評估等,而其中最關鍵者,則為強調確保5G基礎建設的供應鏈安全。   因此在布拉格提案中強調各國建構通訊網路基礎建設,應採用國際資安標準評估其資安風險,特別是受第三國影響之供應商背後所潛藏之風險,並應重視5G技術變革例如邊緣運算所產生的新風險態樣;此外對於接受國家補貼之5G供應商,其補貼應符合公平競爭原則等。布拉格提案對於各國並無法律上拘束力,但甫提出即獲得美國的大力肯定與支持。

歐洲化學品管理署(ECHA)下的社會經濟分析委員會已開始針對限制性措施展開風險管理及成本利益分析等相關工作

  今年(2008)4月2-3號,歐洲化學品管理署(ECHA)下,為社會經濟分析(Socio-economic)目的所設置之委員會,於赫爾辛基(Helsinki)舉行了首次的會議。歐洲化學品管理署執行長Geert Dancet在其公開聲明中提到:「對社會經濟分析委員會(SEAC)之挑戰,是因其被REACH法規範所引用而產生;而此種模式,亦將成為歐盟化學物質立法制度下的一項新工具。其還強調,應同時平等地考量並兼顧到產業、環境及健康等三方面因素,並以前三項因素皆已臻衡平之方式來進行交易」。   此外,於REACH法規範下,該委員會於限制與管理流程上,亦扮演著重要角色。其將掮負起為該署準備關於:申請管理、限制措施建議案提出、以及其他在REACH法規範下與化學物質管理有關之立法措施所將可能導致歐洲社會經濟方面之影響與衝擊等問題,提出相關意見。而目前,就於化學品範圍內,對可能之立法措施未來所將產生的衝擊進行社會經濟面之評估而言,此舉,實為一新且未知的一塊領域。   此外,透過此次會議,除決定了該委員會日後運作之模式外,也達成共識ㄧ致認為:透過此種模式,將能夠保障委員會運作之透明性;同時,還一併能兼顧到它的獨立性,及相關資料的隱密性。目前,該運作模式將待歐洲化學品管理署董事會議正式審核通過後,即開始生效。最後,社會經濟分析委員會於2008年間規畫,擬將舉行兩次會議,而下一次的會議則已預定將於10月份召開。

因應使用「生成式AI(Generative AI)」工具的營業秘密管理強化建議

2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

TOP