日本經產省與環境省共同發布《促進循環經濟與永續金融之揭露及對話指導》

日本經產省與環境省共同發布《促進循環經濟與永續金融之揭露及對話指導》

資訊工業策進會科技法律研究所
2021年06月10日

壹、背景目的

  伴隨全球人口增加,除了提高資源需求,亦造成大量廢棄物產生,導致氣候變化等環境問題日益嚴重,為從過去大量生產、大量消費、大量廢棄的線性經濟轉型為循環經濟,日本經濟產業省(下稱經產省)與環境省於2021年1月19日共同公布「促進循環經濟與永續金融之揭露及對話指導[1]」(サーキュラー・エコノミーに係るサステナブル・ファイナンス促進のための開示・対話ガイダンス)。該指導旨在促進企業與投資者、金融機構之間在資源循環領域順利進行對話,期能通過企業適當地揭露資訊,推展企業技術及商業模式創新,共同創造價值達成永續企業與永續社會的轉型。

貳、事件摘要

  「促進循環經濟與永續金融之揭露及對話指導」參考「環境社會治理」(Environmental, Social, Governance,簡稱ESG)公開框架及「氣候相關財務揭露建議書」(Task Force on Climate-related Financial Disclosures,TCFD)[2],主要著眼於六項重點,除了ESG公開框架與循環經濟特徵共通的「風險與機會」、「策略」、「指標與目標」以及「治理」四者之外,再併入屬於企業經營方針的「價值觀」、「商業模式」兩者。根據上述六項重點,分為三個階層說明彼此關係:(1)首先在「上位方針」階層,「價值觀」作為統合企業實行循環經濟措施的理念與願景,為判斷企業的執行力及實現商業模式可能性的重要因素;而「商業模式」是指企業應分析目前市場環境與未來中長期動向,以及企業採取循環經濟措施對於其在市場地位的競爭優勢,並說明其商業模式所產生的附加價值及確保競爭優勢的差別化因素,使投資者得以適當評價企業進行投資判斷。(2)其次在「實行」階層,「風險與機會」主要包含政策法規、技術、市場及評價四個面向,企業應整理有關依賴線性經濟可能的風險與對財務潛在的影響,以及向循環經濟轉型的機會;並設定相對應的「指標與目標」,檢視商業模式與策略執行的狀況。(3)最後在「PDCA」階層,企業制定「策略」,以確保、強化支撐其商業模式競爭優勢的經營資源、無形資產等;並透過企業規律的「治理」運作,包括企業經營層與董事會積極參與過程,藉由PDCA方法論衡量策略達成情形,並重新進行評估審視[3]

  另一方面,循環經濟涵蓋多種類型,主體主要有(1)本身事業活動採取循環經濟措施的「採用者」(Adopters);抑或(2)通過提供技術、解決方案以提高社會整體循環性的「推動者」(Enablers)。具體而言,即分為企業在本身事業活動中採用循環經濟措施,或是通過提供技術、解決方案對循環經濟措施做出貢獻,並有助於提高社會整體循環性的兩種方式。而循環經濟採取之措施則主要有(1)減量(Reduce),有助於節約資源、抑制廢棄物產生的措施;(2)再使用(Reuse),有助於產品長期使用、有效利用的措施;(3)再循環(Recycle),有助於資源循環利用、再生利用的措施;(4)可再生(Renewable),有助於可再生資源利用的措施[4]。此外,企業在經營事業活動時,應考量循環性,針對產品生命週期,從設計、生產、利用、廢棄等供應鏈所有階段中,根據其業態選擇所適合之循環經濟措施。

參、簡析

  隨著ESG投資在國際逐年擴大,且國際供應鏈亦逐步要求企業採行循環經濟措施,日本本次發布「促進循環經濟與永續金融之揭露及對話指導」,即針對循環經濟與永續金融作出政策性宣示,為日本國內企業點明投資發展方向。對於企業而言,除了提供更具循環性的產品、服務,在企業價值創造故事中結合「價值觀」、「商業模式」,同時藉由企業年度報告將六項重點向投資者展示企業價值;對於投資者而言,除了關注投資效益,亦應以中長期的角度看待企業採取循環經濟措施對實現永續社會的價值,並對其進行適當評價與投資。

  近年來我國政府與企業亦逐步向循環經濟轉型,於2018年12月通過「循環經濟推動方案[5]」,並在經濟部設立「循環經濟推動辦公室[6]」,以推動循環產業化、產業循環化,促進產業循環共生及轉型。而行政院環保署亦擬訂了「資源回收再利用推動計畫[7]」(2018至2020年),擬定有關如何有效利用資源與廢棄物適當處理之策略。由於推動循環經濟仍需要民間企業與投資者的支持,我國政府得參考日本作法訂定相關政策法規。且由於我國並未針對循環經濟制定專法,在資源利用方面,同時可能有「廢棄物管理法」及「資源回收再利用法」二者之適用,造成國內業者在推行創新商業模式遭遇法規障礙,不利於國內企業轉型循環經濟。故建議政府得因應政策變遷及經濟發展需求,通盤性建置循環經濟專法之制度框架,並滾動式調整相關規範,促進循環經濟產業發展,實現企業創新商業模式與新興合作關係,在永續金融方面則透過企業返還投資利潤予投資者,確立經濟與環境之間的良性循環,將有助於國內產業推行永續企業之循環經濟轉型。

  

[1]「サーキュラー・エコノミーに係るサステナブル・ファイナンス促進のための開示・対話ガイダンス」を取りまとめました,日本經濟產業省,https://www.meti.go.jp/press/2020/01/20210119001/20210119001.html ;環境省,https://www.env.go.jp/press/108893.html(最後瀏覽日:2021/6/10)。

[2]Task Force on Climate-related Financial Disclosures, Recommendations of the Task Force on Climate-related Financial Disclosures, https://www.fsb-tcfd.org/publications/final-recommendations-report/ (last visited June 10, 2021).

[3]サーキュラー・エコノミーに係るサステナブル・ファイナンス促進のための開示・対話ガイダンス(本文),日本經濟產業省與環境省,頁6-7,https://www.meti.go.jp/shingikai/energy_environment/ce_finance/pdf/20200119_2.pdf(最後瀏覽日:2021/6/10)。

[4]同前註,頁12-13。

[5]行政院經濟能源農業處,循環經濟推動方案,https://www.ey.gov.tw/Page/448DE008087A1971/dc1de106-4298-4ad1-a9c7-f5b800f283cb (最後瀏覽日:2021/6/10)。

[6]經濟部工業局,循環經濟推動辦公室,https://cepo.org.tw/Default.aspx (最後瀏覽日:2021/6/10)。

[7]行政院環保署,資源回收再利用推動計畫,https://www.epa.gov.tw/Page/72968DDF9105BE07 (最後瀏覽日:2021/6/10)。

相關連結
相關附件
※ 日本經產省與環境省共同發布《促進循環經濟與永續金融之揭露及對話指導》, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8685&no=57&tp=1 (最後瀏覽日:2026/01/21)
引註此篇文章
你可能還會想看
日本《人工智慧技術研究開發及應用促進法》簡介

日本《人工智慧技術研究開發及應用促進法》簡介 資訊工業策進會科技法律研究所 2025年06月25日 為全面性且有計畫地推動人工智慧(以下簡稱AI)相關技術之研發及應用,同時為改善國民生活和促進國家經濟健康發展做出貢獻,日本內閣於2025年2月28日提出《人工智慧技術研究開發及應用促進法》(以下簡稱本法)草案。 [1] 本法進一步於同年5月28日經參議院表決通過[2] ,通過之條文內容與2月28日提出之草案並無二致,惟5月27日內閣委員會另外通過20點附帶決議[3] ,其中涵蓋共多具體措施。本法於6月4日公布施行[4] ,以下將介紹本次日本《人工智慧技術研究開發及應用促進法》及附帶決議內容。 壹、立法緣由 近年AI技術及應用蓬勃發展,然而日本卻深感國內對AI發展不如其他主要國家,依據科學技術創新推進事務局(科学技術・イノベーション推進事務局,以下簡稱科技事務局)釋出之立法概要,本次立法主要有兩大理由 [5]: 一、國內AI技術開發、應用起步緩慢 科技事務局引用史丹佛大學於2024年所發布之《AI指數報告》(AI Index Report 2024),該份報告彙整2023年各國對於AI相關產業之民間投資額,如下圖所示。從此圖可知,作為世界主要經濟體的日本,對於AI的民間投資於2023年竟僅有6.8億美元,遠遠不及美國的670.22億美元、中國77.6億美元及英國37.8億美元。[6] 圖一、各國對於AI相關產業民間投資額統計 資料來源:STANFORD INSTITUTE FOR HUMAN-CENTERED AI [HAI], Artificial Intelligence Index Report (2024). 此外,根據日本總務省於2024年所發布之調查結果,如下圖所示,日本僅有9.1%的國民有使用過生成式AI之經驗,相較於中國的56.3%、美國的46.3%、英國的39.8%及德國的34.6%,仍有相當程度之落後。 [7] 圖二、各國國民使用過生成式AI之經驗調查 資料來源:総務省,令和6年版情報通信白書 不僅國民的AI使用率低,日本總務省亦針對企業將AI運用於其業務進行調查,如下圖所示,目前有在使用AI之企業僅有46.8%(包含已取得具體成效及尚未取得成效),其餘53.2%之企業則正在測試階段、正在商議導入或至今仍未討論導入。對比中國的95.1%、德國的80.6%及美國的78.7%,雖不如國民使用率落後,但仍有不少進步空間。[8] 圖三、各國企業業務中AI運用情形調查 資料來源:総務省,令和6年版情報通信白書 二、多數國民對於AI仍感到不安 科技事務局引用KPMG於2023年所發布的《全球AI信任研究報告》(Trust in AI: A Global Study 2023),僅有13%的日本國民認為現行法規已足以確保AI可被安全使用,亦低於中國的74%、德國的39%及美國的30%。此調查結果亦如實反映出有77%的日本國民迫切希望國內能針對AI訂定相關規範。[9] 除上述兩項主要理由外,考量日本有需要進一步促進創新發展、積極應對AI產生之風險,因此科技事務局決定訂立新的AI法規。 貳、立法重點 《人工智慧技術研究開發及應用促進法》總計28條,共分為四個章節,包含第一章總則(第1條至第10條)、第二章基本政策實施(第11條至第17條)、第三章人工智慧基本計畫(第18條)及第四章人工智慧戰略本部(第19條至第28條)。考量依法規條文及章節順序不易說明,以下將以科技事務局所提供之立法概要之脈絡進行說明。 一、目的 第1條即說明本法旨在全面且有計畫地制定AI相關政策,推動AI技術之研發與應用,以改善國民生活並為國民經濟發展做出貢獻。 二、基本理念 第3條亦規定AI技術之研發與應用應以提升AI產業之國際競爭力為目標,希冀藉由AI技術創造高效率新業務,並得以應用於國民日常生活與經濟活動之各階段,另考量AI技術若經不當使用,將有助漲犯罪行為或洩漏個資等風險發生之可能性,故應確保AI技術之正確使用。最後,同條亦規定日本應在AI技術之研發與應用上進行國際合作,並努力在國際合作中取得主導地位。 三、AI戰略本部 本法第四章皆為設立AI戰略本部相關之條文,第19條、第20條及第25條第2項規定AI戰略本部應由內閣所設立,其職責有以下兩項: (一)研擬AI基本計畫草案,並推動相關事宜。 (二)促進AI相關技術研發及應用相關重要政策之規劃、提案及統籌協調等事宜。 (三)除本法規定的事項外,總部相關必要事項由政令規定。 為使AI戰略本部可順利履行上述職責,第25條賦予AI戰略本部認為有必要時,得向行政機關、地方公共團體、獨立行政機構、地方獨立行政機構的首長以及公共機關的代表,要求提供資料、發表意見、進行說明及提供其他必要協助。 第21條至第28條則為與本部組成相關之規定,其規定AI戰略本部組成成員包含以下三個職位: (一)部長:由總理擔任,掌管總部事務,並領導監督總部工作人員。 (二)次長:由官房長官及AI戰略大臣(由總理任命)擔任,負責協助部長履行職責。 (三)由除部長、次長以外的所有國務大臣組成。 四、AI基本計畫 如上所述,AI戰略本部重要職責之一,即研擬AI基本計畫草案。依第18條規定,總理應將AI戰略本部所研擬之AI基本計畫草案,提請內閣決定是否同意草案內容,待內閣作成決定後,總理應立即公布AI基本計畫。 同條亦明定AI戰略本部應以前述第二節的基本理念及以下第五節的基本政策實施之相關規定為基礎,研擬AI基本計畫草案,其應涵蓋之事項包含: (一)AI技術研發及應用政策實施的基本方針。 (二)為促進AI技術研發及應用,政府應全面性且有計畫地實施政策。 (三)政府為能全面性且有計畫地實施政策所採取的必要措施。 五、基本政策實施 第二章所涵蓋之第11條至第17條則規定政府應執行之基本政策實施事項,包含: (一)促進AI技術研發 依第11條規定,國家應採取措施促進AI技術研發,使AI技術可順利從基礎研究階段進展至實際應用階段,並在研發機構間建立研發成果得以互相流通之制度,同時提供研發成果資訊。 (二)提升基礎設施建置與使用 依第12條規定,國家應採取措施建置AI基礎設施,包含AI技術研發及應用所需之大規模資料處理、資通訊、電磁紀錄儲存等設備及為特定目的所收集之資料集等,並使AI基礎設施得以廣泛供研發機構或企業所使用。 (三)確保符合國際規範 依第13條規定,國家應根據國際規範制定基本方針並採取其他必要措施,以確保AI技術之研發及應用得以適當之方式進行。 (四)確保人力資源 依第14條規定,國家應與地方政府、研發機構和企業緊密合作,並採取必要措施,以確保、培訓和提升各領域人才的專業素質,使其具備AI技術從基礎研究至實際應用於民眾生活或經濟活動之各階段所需之專業知識,並提升其專業知識之廣度及深度。 (五)提升教育 依第15條規定,國家應提升與AI技術相關之教育與學習、辦理推廣活動或採取其他必要措施,以增進大眾對AI技術之認知與興趣。 (六)研究調查 依第16條規定,國家應掌握國內外AI技術研發及應用之最新趨勢,並進行有助於AI技術研發及應用發展之研究與調查,包含分析因不正當目的或不適當方法研發應用所導致國民受侵害之案例,及針對不正當使用之因應對策。 同時,國家亦應根據此類研究調查成果,向研發機構、企業和其他人員提供指導、建議和最新資訊,並採取其他必要措施。 (七)國際合作 依第17條規定,國家應進行AI技術研發及應用之國際合作,積極參與國際規範之制定過程。 六、職責 第4條至第8條分別規定國家、地方政府、研發機構、企業與國民應各司其職,其職責分述如下: (一)國家 依第4條規定,國家應依前述第二節的基本理念,制定並實施促進AI技術研發及應用之基本政策實施相關之計畫。此外,國家應在行政機關間積極應用AI技術,以提升行政效率。 (二)地方政府 依第5條規定,地方政府應依前述第二節的基本理念,在與國家進行適當分工後,結合各地方特色,制定並實施自主政策,以促進AI技術之研發及應用。 (三)研發機構 依第6條規定,大學及研發機構應依前述第二節的基本理念,積極進行AI技術之研發,推廣其成果,培育具有專業性和廣泛知識之人才,並協助國家與地方政府之政策實施,而國家與地方政府則應促進大學研究活動,尊重研究人員自主權及將各大學之特色納入考量。 此外,研發機構應進行跨領域或綜合性研發,同時為有效推動AI技術研發,應綜合考量人文科學及自然科學等領域之專業知識。 (四)企業 依第7條規定,任何企業有意開發或提供使用AI技術之產品或服務,或任何其他有意在其業務活動中使用AI技術,應依前述第二節的基本理念,提升其業務之效率和品質。 此外,上述企業應透過積極使用AI技術創造新興產業,並須配合執行國家依第4條所定之措施及地方政府依第5條所定之措施。 (五)國民 國民應依前述第二節的基本理念,加深對AI技術之認知與興趣,並盡可能配合執行國家依第4條所定之措施及地方政府依第5條所定之措施。 七、附帶決議 本次立法過程除條文本身外,5月27日內閣委員會亦通過20點附帶決議,針對政府實施本法時應採取之適當措施進行補充說明,以下摘錄重點說明 :[10] (一)政府應以「以人為本之AI社會原則」為基礎,進行AI技術研發及應用。 (二)政府制定AI基本計畫和基本方針,或執行政策措施時,應將風險降至最低,並考量推廣AI之益處。 (三)企業和國民應充分了解AI應用之注意事項及規避風險之措施,並透過教育使國民了解AI合理使用方法及其風險。 (四)政府針對AI應用導致之失業或貧富差距擴大採取必要措施。 (五)政府應透過法規打擊AI技術之濫用,特別是利用兒童圖像產生之深偽色情內容,並加強對網站管理員刪除違法內容之監管,保護受害者。 (六)政府和民間機構將合作開發以日語為基礎之大型語言模型。 (七)政府應消除新創企業等新進者之壁壘,創造公平開放之市場環境。 (八)政府應將AI定位為國家戰略重要領域。 (九)政府應考慮電力供需,策略性地建設資料中心。 (十)政府應以跨學科之觀點強化對AI人才之培養,並確保足夠有投資。 (十一)政府應積極營造有利於國家、地方政府、企業應用AI之環境,並避免因營運效率提升而出現裁員情形。 (十二)政府應執行降低AI風險之措施,並進行公私合作以確保安全。 (十三)政府於進行調查和指導時,應避免施加過重之負擔或要求過多資訊揭露,同時考慮保護企業之商業機密等智慧財產權。 (十四)政府於國民權益受害之個案進行調查和指導時,應即時自企業或服務使用者和人工取得資訊,以便迅速發現個案並因應。 (十五)針對依《廣島人工智慧進程國際行為準則》負有報告義務之企業,政府應最大限度地減少其與現行國內法規之報告義務之重複。 (十六)政府應不斷修訂本法及其他相關計畫與方針,以確保AI應用能促進國民生活改善和國民經濟發展,並及時應對新風險。 (十七)AI戰略總部之組織架構,應消除各部會、機構垂直分工造成之弊端,並積極自民間招募人才。 (十八)政府應儘早成立由AI倫理、法律和社會議題等領域專家組成的智庫機構。 (十九)如出現現行法規難以因應之新風險,政府應考慮導入風險導向之概念,依風險等級而採取不同監管措施。 (二十)因應AI應用產生之智慧財產權相關侵權行為,政府應參考其他國家之情形,探討因應措施。 參、總結 日本緊接著韓國之後,成為亞洲第二個在法律層級通過AI法規的國家,惟相較歐盟或韓國通過的AI法,日本在法律條文的訂定上,主要是針對政府與各界之職責進行規範,而缺乏對於AI技術開發或應用風險之監管。儘管附帶決議中較多具體內容,仍須待AI基本計畫訂定後,日本對於AI技術開發或應用之監管模式才會有較清晰之雛形。 考量到日本尚有通過20點附帶決議,日後仍可關注AI戰略本部如何依據AI法及附帶決議擬定AI基本計畫,未來或可成為我國人工智慧法制政策規劃之參考依據。 [1]人工知能関連技術の研究開発及び活用の推進に関する法律案(第217回閣法第29号)。 [2]〈議案情報:人工知能関連技術の研究開発及び活用の推進に関する法律案〉,参議院,https://www.sangiin.go.jp/japanese/joho1/kousei/gian/217/meisai/m217080217029.htm(最後瀏覽日:2025年6月11日)。 [3]参議院,〈人工知能関連技術の研究開発及び活用の推進に関する法律案に対する附帯決議〉,https://www.sangiin.go.jp/japanese/gianjoho/ketsugi/current/f063_052701.pdf(最後瀏覽日:2025年6月11日)。 [4]人工知能関連技術の研究開発及び活用の推進に関する法律法律(令和7年法律第53号)。 [5]內閣府,〈人工知能関連技術の研究開発及び活用の推進に関する法律案(AI法案)概要〉,https://www.cao.go.jp/houan/pdf/217/217gaiyou_2.pdf(最後瀏覽日:2025年6月11日)。 [6]STANFORD INSTITUTE FOR HUMAN-CENTERED AI [HAI], Artificial Intelligence Index Report (2024), https://hai.stanford.edu/assets/files/hai_ai-index-report-2024-smaller2.pdf (last visited June 11, 2025) [7]総務省,〈令和6年版情報通信白書〉,https://www.soumu.go.jp/johotsusintokei/whitepaper/ja/r06/pdf/n1510000.pdf(最後瀏覽日:2025年6月11日)。 [8]総務省,〈令和6年版情報通信白書〉,https://www.soumu.go.jp/johotsusintokei/whitepaper/ja/r06/pdf/n1510000.pdf(最後瀏覽日:2025年6月11日)。 [9]KPMG, Trust Inartificial Intelligence: Country Insights on Shifting Public Perceptions of AI (2023), https://assets.kpmg.com/content/dam/kpmgsites/xx/pdf/2023/09/trust-in-ai-country-insight.pdf.coredownload.inline.pdf (last visited June 11, 2025). [10]参議院,〈人工知能関連技術の研究開発及び活用の推進に関する法律案に対する附帯決議〉,https://www.sangiin.go.jp/japanese/gianjoho/ketsugi/current/f063_052701.pdf(最後瀏覽日:2025年6月11日)。

經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。

簡介美國《營業秘密案件管理的司法指引》

2023年7月13日,美國聯邦司法中心(Federal Judicial Center)發布《營業秘密案件管理的司法指引》(Trade Secret Case Management Judicial Guide)。該指引是由美國聯邦司法中心與Berkeley大學合作出版,旨在提供處理聯邦營業秘密訴訟的法官參考,並為訴訟當事人提供營業秘密案件各階段的注意事項。其中特別指出識別營業秘密及證據開示在訴訟中的重要性。 1.在識別營業秘密的部分 《營業秘密案件管理的司法指引》指出在訴訟中,識別應達到「足以與已公開的資訊進行比較」的程度。而識別程度應具備以下兩個要件,包括: (1)使被告了解原告所主張之營業秘密範圍; (2)使被告能確定證據開示項目與本案所涉及之營業秘密間的關聯性。 據此,若原告僅識別其所主張之營業秘密的類別不足以識別其營業秘密。為達到《營業秘密案件管理的司法指南》所要求之識別程度,企業應盤點其擁有的營業秘密並留存產出紀錄,以利後續訴訟中能具體識別其營業秘密。 2.在證據開示的部分 《營業秘密案件管理的司法指引》指出證據開示的範圍會受到不同因素影響,比如各類型的特殊紀錄、個人隱私權是否受到保護等。為了能在證據開示階段取得優勢,企業應與員工簽署協議,明確約定其於機密資訊有外洩之虞時,有權對員工之個人設備等進行調查。 由上述內容可以發現,若要在美國營業秘密案件中取得優勢,建議企業採取識別所擁有的營業秘密、保存產出紀錄、與員工簽署相關協議等措施。關於前述營業秘密管理措施之重要內容,企業可以參考資策會科法所創意智財中心發布的「營業秘密保護管理規範」,並進一步了解該如何管理,以降低自身營業秘密外洩之風險,並提升其競爭優勢。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書

  世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。   包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。   在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。   綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。

TOP