緣起於2016年的加密法案(ENCRYPT Act),由於今年發生了臉書劍橋分析事件,以及歐盟GDPR的影響,本此法案再提的聲勢如浪潮襲來,不僅眾多議員附和,連企業(如:電子前線基金會Electronic Frontier Foundation,EFF)都予以支持。
加密法案的主要內容係以兩方面進行加密應用之保護,
本法案的主要提案者美國眾議員Ted Lieu指出,與加密或資料存取相關的問題,皆應在聯邦政府的層級進行討論,而就其本身電腦科學的專業,指出在各州間保有不同的加密應用執法標準,對資安、消費者、創新,以及執法本身都是不利的,引此本法案的推動旨在強化州際商業和經濟安全,以及網路安全問題,希望能對加密應用議題作全國性的討論,而不會損害使用者在過程中的安全性。
3D列印設計分享網站Shapeways在週五收到從任天堂神奇寶貝國際公司一個停止侵權的函(cease and desist),是有關於藝術家Claudia Ng的類似神奇寶貝妙娃種子的陶瓷園藝盆設計,他將園藝盆在Shapeways網站上販售,但Shapeways在收到警告信函後移除了網站上的產品列表。 根據Claudia Ng所述,任天堂神奇寶貝國際公司是要求所有有關此模型相關的收益。原本產品列表上並未直接將神奇寶貝遊戲名稱用於此盆栽設計名稱,Claudia Ng標註牠是植物怪獸(succulent monster),但產品列表中數次提及了神奇寶貝公司。最新版的設計將近2.5英吋(6.5公分)高,售價為49美元,目前有多種顏色提供銷售。 Claudia Ng表示:我想這是落於衍生和轉化著作的範疇,我並非一個律師,但我猜測這至少是最廣義的相關法規解釋裡。發生這件事我並不意外,只不過我原本預期該公司會追蹤的是那些有更多侵權設計的人。雖然我承認我個人喜愛的神奇寶貝啟發了我的靈感,但不是神奇寶貝的粉絲也都會喜歡這設計的原因就在於神奇寶貝本身的動物本質(generic-ness)。大多數都公認牠像一隻肥貓。而且我也被要求去設計其他的動物或生物。 Claudia Ng可能會被安排和任天堂神奇寶貝國際公司接觸,雖然他無法確定從這場可能的會議中會發生甚麼事。 3D列印設計分享上有可能設計的產品會侵害他人權利,設計者在靈感啟發上到設計成品時皆須有避免侵權的考量,以免不只無法獲利也有侵權的風險。
美國食品及藥物管理局發布《細胞和基因治療產品效價保證指引草案》由於起始材料(starting material)與其作用機制的複雜性,如何評估細胞和基因治療(Cell and Gene Therapy, CGT)產品的效價,並且確保產品效價有一致性,是一項複雜的工作。因應近年CGT產品的發展,美國食品及藥物管理局(U.S. Food and Drug Administration, FDA)於2023年12月28日發布《細胞和基因治療產品效價保證指引草案》(Potency Assurance for Cellular and Gene Therapy Products Draft Guidance for Industry),旨在提供廠商基於科學與風險評估的效價確保策略。 指引草案重點如下: 1.確立效價測試基準:納入2011年《細胞和基因治療產品的效價測試指引》(Potency Tests for Cellular and Gene Therapy Products Guidance for Industry)中關於效價測試設計的具體建議,包括專一性、準確性和精確性等要求。 2.建立涵蓋產品生命週期的效價保證策略:強調在整個產品生命週期中,進行效價測試的重要性,涵蓋製程設計、製程控制、物料控制與批次檢測等多個環節。 3.導入風險管理評估概念:包括根據CGT產品的作用機制、臨床指示和給藥途徑來訂定目標產品品質(Quality Target Product Profile, QTPP),確定與效價相關的關鍵品質因素(Critical Quality Attributes, CQA)、以及影響CQA的關鍵性製程因素(Critical Process Parameter, CPP)等,並應用到效價保證策略中。 依照這份指引草案,未來廠商在產品開發早期階段就需要進行產品性質與作用機制的風險評估,在製造過程中持續進行品質監控,並詳細記錄其效價測試方法。這樣能確保產品在每個生產階段都符合FDA的安全性和效價標準,從而減少市場准入的障礙,也增強了公眾對CGT產品安全性和療效的信心,加快創新治療方法的推廣,而後續亦值得關注2024年3月27日所徵集的意見。
日本文部科學省發布2021年科學技術與創新白皮書,著眼於韌性社會願景與疫後對策的具體措施日本文部科學省於2021年6月8日公布「2021年科學技術與創新白皮書」(令和3年版科学技術・イノベーション白書),為文部省就政府所訂立之科技政策藍圖,所發布的年度報告書。本年度白皮書循往例,區分為第一部分與第二部分。第一部分著重同年3月發布之第6期科學技術與創新基本計畫(第6期科学技術・イノベーション基本計画)框架下,為達成Society 5.0之願景政府所規劃的一系列政策;第二部分則回顧去(2020)年,政府針對科技與創新創造所採取的各項對策。 本白皮書就韌性社會所需科研項目、強化研究能量的激勵措施等層面,提出以下具體方向: (1)推動社會數位化與零碳排放(脱炭素化) 為強化網路虛擬空間與現實社會間的資源共享與互動發展,虛擬空間之基礎技術方面,持續研發超級電腦、AI與量子電腦,利用所累積的資料運用於深度分析與模擬,並實現超高速計算與量子通訊。虛擬空間與現實社會結合之應用型技術研發方面,包含能輔助身體運作的外部機械、透過自駕車系統銜接高齡化社會交通需求、以及遠端遙控之機器人技術應用於高風險作業環境。推動零碳排放、強化防災能量等面向,則藉由綠色成長戰略、綠色創新基金等政策,發展核融合、次世代蓄電池、精準預測氣候變遷之系統等新興技術;運用AI模擬等強化地震與天災的預報精準度,提升社會應對大規模自然災害的韌性。 (2)「知識」的整合創造與利用,以用於解決各類社會議題 考量社會議題的解決,不僅在於前瞻性自然科學技術的研發,尚需同步理解人類社會的多樣性。同時,人文社會科學近年來,亦多有採用自然科學的研究方法。因之,白皮書主張兩方的跨域知識結合,應用上強調須以人為本來解決各類社會議題。 (3)強化基礎研究能量 應著手改善出於個人經濟因素,放棄申請博士後課程的現況,創造年輕研究者敢於投入自身有興趣且具挑戰性研究課題之環境。基此,白皮書提出設置10兆日圓規模的大學基金,提升約15,000名博士後課程學生的待遇,並推動「創造發展性研究支援事業」(創発的研究支援事業)措施,穩定提供10年期間的研究資金。 (4)COVID-19疫情對策 持續投入研發治療方法(如檢驗抗病毒藥物Favipiravir用於治療COVID-19的效果與安全性)、疫苗與相關醫療器材,並推動以遠距方式進行研究活動,導入機器人技術等來發展自動化實驗、於虛擬空間內進行實驗等;另一方面,有效的防疫對策(如避免人潮密集、密切接觸、密閉空間的「三密」),根基於COVID-19的最新科研成果,因此需讓科學性、客觀性資訊透過適切的管道(如日本科學未來館網站),以淺顯易懂的形式向大眾宣達。
落實完善數位資料管理機制,有助於降低AI歧視及資料外洩風險落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).