當工業的製造生產過程經過一連串自動化、產量化以及全球化之變革歷程之後,智慧工廠的發展已經成為未來各國的重點目標。生產力4.0的設計中,巨量資料(Big Data)是重要的一環,以製造業為例,傳統上將製造生產取得的數據僅用於追蹤目的使用,鮮少做為改善整體操作流程的基礎,但在生產力4.0推進之後,則轉變為如何藉由巨量資料來提升生的效率、利用多元資源的集中化與分類處理,並經過分析取得改善行動方式,使生產最佳化,再結合訂單需求預期分析,依市場變化調整製造產量,達成本控制效果。
在我國104年9月公布之「2015行政院產力4.0科技發展方案」,亦提及智慧機械、智慧聯網、巨量資料、雲端運作等技術開發,使製造業、商業服務業、農業產品服務等,提升其附加價值。除此之外,經濟部積極規劃佈建巨量資料自主技術研發能力並且促成投資,落實應用產業智慧化與巨量資料產業化之目標。然而,巨量資料的應用因涉及大量的資料蒐集與利用,因此,未來應著重於如何將資料去辨識化,顧及隱私與個人資料之保護。目前,針對此部分,法務部將研擬個人資料保護法修正案,制訂巨量資料配套法規。
本文為「經濟部產業技術司科技專案成果」
日本也有EUA了!新修《藥機法》通過藥物緊急許可制度 資訊工業策進會科技法律研究所 2022年06月13日 去(2021)年12年底日本厚生勞動省發布「緊急時藥物許可制度總結[1]」(緊急時の薬事承認の在り方等に関するとりまとめ)文件,就日本藥物緊急許可制度(緊急承認)進行提案,並建議修法。接著,以該制度為中心之《藥物及醫療器材品質、有效性及安全性確保法》(医薬品、医療機器等の品質、有効性及び安全性の確保等に関する法律)(下稱藥機法)修正案,在今(2022)年3月經眾議院通過,4月經參議院通過成立,5月20日公布並即日開始發生效力[2]。主要條文規範在新法第14條之2之2及第23條之2之6之2。 壹、立法背景說明 修法之前,日本藥物上市審查有四種管道:一般許可(通常承認)、先驅審查指定制度(先駆け審査指定制度)、附條件許可(条件付き承認)、特例許可(特例承認)。「一般許可」係無特殊情形下之通常上市管道;「先驅審查指定制度」是針對治療嚴重疾病的劃時代創新藥物所創設之優先審查制度[3];「附條件許可」則是針對有效治療方法少、患者數量少的嚴重疾病的藥物審查制度[4];若遇緊急事件需使用藥物則是走「特例許可」管道使藥品能提早上市[5]。 根據去年日本厚生勞動省之調查[6],在傳染病大流行等類似緊急情況之下,日本當時對於藥品核准的對應方式存有兩大問題。 首先是對應的速度不夠快。在緊急狀況下,對於疫苗及藥物等的優先核准制度,即使是日本當時最快的「特例許可」管道,相較於歐美也較為耗時。以對抗新型冠狀病毒的莫德納疫苗為例,該疫苗在美國取得緊急使用授權(Emergency Use Authorization,下稱EUA)之後,約過了5個月才在日本獲得承認;而新型冠狀病毒的治療藥物Sotrovimab於日本國內的核准也晚於美國4個月[7]。 其二是特別許可的適用對象較窄,「特例許可」管道是為已在國外流通之藥品而設計,因此若是日本藥廠自行研發的疫苗、藥物或是療法,均無法依此管道上市。如日本藥廠塩野義所開發的新型冠狀病毒口服藥,即需要透過附條件許可之制度,或新的緊急許可制度加快上市速度。 鑒於前述原因,日本厚生勞動省參考美國EUA,提出了藥物的「緊急許可制度」。此二制度最大共通特點在於其均非藥品的正式上市制度,通過審查之後僅能在一定期間內上市流通,到期之後原則上應下架[8]。 貳、重點說明 緊急許可制度有四大重點[9],說明如下: 一、發動要件:為防止重大影響國民生命和健康之疾病蔓延,及防止其他健康損害狀況的擴大,有緊急使用之必要,且無使用該藥物以外替代手段時,得申請緊急許可。此處所稱之藥物包括了疫苗、治療藥物、普通藥品、醫療器械等產品。且緊急情況並不限於大規模流行性疾病,核事故、放射性污染、生化攻擊等情況亦適用緊急許可制度。 二、運用標準:在臨床試驗確認安全性的前提下,可以不需要完成有效性的完整試驗,得僅就現有的數據及資訊進行有效性之推定。舉例而言,若在海外進行的大規模驗證臨床研究中獲得了顯著的結果,則以日本受試者為主的臨床研究結果為非必要。 三、核准條件及期限:由於在有效性的階段給予核准,為了確保正確使用核准的藥物,應附上條件以及二年內之期限(有再延長一年之可能)。獲得許可後一定期限內若無法確認有效性,且判斷該醫藥品或器材不適合維持許可狀態時,將撤銷許可。 四、加速特別措施:對GMP檢驗、國家認證、容器包裝等採取特殊措施以加快核准速度。如在申請緊急許可當下,GMP檢驗有實施上困難,可以先暫緩,待核准後再補上檢驗程序。 參、與現存制度差異評析 特例許可是在緊急許可推出之前,在緊急情況下能在短期間內讓藥品上市之方式。特例許可是藥品正式上市流程,而緊急許可是在符合條件後暫時性准許上市,故兩者在範圍、運用基準以及期限等規定上存有明顯差異。 首先在範圍方面,特例許可係為了已在國外流通的醫療用品引進國內而設置,因此日本國內企業自行研發的新疫苗或是新治療藥等,無法透過特例許可上市[10],原則上需要透過一般藥物上市管道,因此新制度對於日本藥廠來說,形同多開闢了一條產品上市的道路。其次,在運用基準方面,特例許可應完整確認安全性及有效性,無法如新制般能僅由現存數據及資料推定該藥物之有效性[11],因此新制可以縮短臨床試驗所花費的時間。最後,由於特例許可為正式之上市許可,僅在簡化一般藥物之審查流程至2-3個月,故其無有效期間之規定[12],而依新制度上市之藥品在有效期間內仍須完成剩下的臨床試驗,否則期限屆至時原則上應下市。 肆、未來展望 由於緊急許可制度剛修法通過,日本國內目前尚未有以此管道核准上市之藥物或疫苗,因此核准程序所花費之時程,能否成功縮短至如美國EUA的三週內尚未可知。目前最有可能以此管道核准上市之藥物為日本藥廠塩野義的新型冠狀病毒口服藥,審查結果預計於7月發表[13],其發展究竟如何,值得我們拭目以待。 [1] 〈緊急時の薬事承認の在り方等に関するとりまとめ〉,厚生勞動省,https://www.mhlw.go.jp/content/11121000/000873996.pdf(最後瀏覽日:2022/06/12)。 [2] 日本參議院網站,https://www.sangiin.go.jp/japanese/joho1/kousei/gian/208/meisai/m208080208042.htm(最後瀏覽日:2022/06/12)。 [3] 〈先駆的医薬品等指定制度(先駆け審査指定制度)〉,獨立行政法人醫藥品醫療機器總合機構,https://www.pmda.go.jp/review-services/drug-reviews/0002.html (最後瀏覽日:2022/06/27)。 [4] 〈医薬品条件付早期承認制度への対応〉,獨立行政法人醫藥品醫療機器總合機構https://www.pmda.go.jp/review-services/drug-reviews/0045.html (最後瀏覽日:2022/06/27)。 [5] 同前註1。 [6] 同前註1。 [7] 〈緊急時の薬事承認の在り方について〉,厚生勞動省,https://www.mhlw.go.jp/content/11121000/000856077.pdf(最後瀏覽日:2022/06/12)。 [8] 同前註。 [9] 〈令和4年の医薬品、医療機器等の品質、有効性及び安全性の確保等に関する法律(薬機法)等の一部改正について〉,日本厚生勞動省網站,https://www.mhlw.go.jp/stf/seisakunitsuite/bunya/0000179749_00006.html(最後瀏覽日:2022/06/12)。 [10] 医薬品、医療機器等の品質、有効性及び安全性の確保等に関する法律(昭和三十五年法律第百四十五号)第14條之3第2項。 [11] 同前註4。 [12] 周晨蕙、施雅薰,《科技法律透析》,〈COVID-19疫情下我國藥事法專案核准制度議題-以國際藥物緊急核准上市機制為借鏡〉,第33卷第10期,頁58(2021)。 [13] NHK,〈コロナ飲み薬 塩野義製薬「ゾコーバ」有効性や副作用 承認の可否は〉,2022/06/23,https://www.nhk.or.jp/shutoken/newsup/20220623a.html (最後瀏覽日:2022/06/27)。
落實完善數位資料管理機制,有助於降低AI歧視及資料外洩風險落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).
荷蘭智庫提出發展永續性生質燃料的政策建議面對解決氣候變遷及尋找替代石化能源的全球性問題,生質材料(biomass)的開發與利用深受期待,然而,生質材料的生產與利用是否適當,乃是複雜的決策工具,一國政府在推動與能源、溫室氣體減量有關之政策工具時,必須意識到這些政策工具背後所蘊藏之其他風險。 在面對生質材料的風險,荷蘭政府可謂最先有此問題意識,並嘗試在提出政策工具時盡可能作妥適規劃的先進國家之一。荷蘭是歐洲最大的棕櫚油進口國,以棕櫚油製成的產品在荷蘭超市到處可見,部分棕櫚油也用於能源供應,荷蘭甚至有業者打算興建專門使用棕櫚油運轉的電力供應站(power stations)。 為確保利用棕櫚油及其他生質材料所開發新能源符合環境永續經營的目的,荷蘭政府已研議在相關的政策措施中,導入生質材料應符合永續性的標準;而為落實此一政策構想,荷蘭政府委託智庫Cramer Commission(該委員會以其主席Jacqueline Cramer的姓為名,Cramer女士更在2007年2月成為荷蘭環境部長)進行相關研究。Cramer Commission在今年4月向荷蘭政府正式提出「檢測生質材料是否符合永續性之架構報告」(Testing Framework Report for Sustainable Biomass),報告中提出發展生質燃料可能涉及的六大永續性議題分別:溫室氣體排放、與食物及其他運用領域之衝突、生物多樣性、環境、經濟繁榮、社會福祉;報告除針對此六大議題分別提出永續性思考外,並建議透過追蹤系統(track-and-trace system)對作物從種植到成為電廠生產生質燃料的整個過程予以監控,並對生質燃料公布嚴格的進口標準,作為生質燃料的作物,其栽種方式必須經認證是不破壞環境,或所釋出的溫室氣體比節省得多,始得進口。Cramer Commission並建議荷蘭政府設定在2020年前進口永續來源的生質材料,並建議在此之前應有過渡措施。 關於生質燃料的環境風險問題,目前在歐盟已開始有問題意識,歐盟也嘗試思考是否可能藉由綠色認證制度之建立,確保非以永續方式製造的生質燃料,不得進入歐盟市場;其他打算跟進的歐洲國家,則正在觀察荷蘭的作法。
加拿大政府就生成式人工智慧對著作權的影響進行公眾諮詢加拿大政府於2023年10月23日至12月4日針對「生成式人工智慧對著作權的影響」(consultation on the implications of generative artificial intelligence for copyright)進行公眾諮詢,以期了解生成式人工智慧對於加拿大著作權市場之變化,進而修訂《著作權法》(Copyright Act),本次諮詢文件中討論重點整理如下: 1.文字和資料探勘(Text and Data Mining, TDM):是否需要因應TDM修改加拿大原本的著作權法,包含著作權法中合理使用行為(29條)和暫時性重製行為(30.71條)等得不構成侵害之例外條款。學者、AI使用者以及AI技術團體大多持肯定見解,認為TDM行為中使用的著作時不需要權利人的著作權授權;然創意產業則多持否定見解,認為不應該為TDM創設例外,否則將會使得TDM所使用之作品原著作人無法主張權利以獲得授權金。 2.人工智慧生成作品之著作人身分及著作權歸屬:因利用生成式人工智慧所創作或輔助創作之文字、圖像和音樂有作者身分不明確之虞,因此加拿大政府希望可以對此加以澄清,並討論是否需要修改原本的著作權法案中相關規定。針對作者身分不明確之爭議,加拿大政府提出了三種可能的規範模式: (1)闡明著作權保護只適用於自然人創作的作品; (2)將人工智慧生成作品之作者歸屬於在創作作品時運用技能和判斷力的自然人,凡自然人可以在人工智慧技術輔助下創作的作品中貢獻足夠的技能和判斷力,即可被視為該作品的作者; (3)為人工智慧生成的作品創設一套新的權利。 3.人工智慧之侵權責任:人工智慧係透過大量的資料庫來生成一項作品,過程中可能出現侵害他人著作權之情形,而加拿大現行的著作權法框架下很難認定侵權行為之責任歸屬。加拿大現行的著作權法要求被侵權人(著作人)必須證明侵權人明知其重製行為侵犯他人著作權,且就該他人著作加以重製,但一般人難以瞭解人工智慧系統開發及訓練過程,因此難證明人工智慧系統研發與利用過程中的業者、工程師或其他相關人等是否有侵權行為。因此加拿大政府希望利害關係人就此議題提供更多意見,以協助將來修法、提高市場透明度。 生成式人工智慧雖然提供了便利的創作方式並帶來巨大經濟利益,卻也可能侵害他人著作權,因此平衡著作人之權利並兼顧經濟發展是加拿大政府及國際社會課正積極解決的議題。