日本《科學技術基本計畫》為依據其科學技術基本法之要求,以每5年為期擬定,目的在於建構一立基於長期性觀點且體系化的科學技術政策,並以之為施政框架,目前實施之科學技術基本計畫,為規劃自2016年至2020年期間施行之第5期科學技術基本計畫。而為形成下一階段之科學技術基本計畫,日本學術會議現公布了「第6期科學技術基本計畫方向」建言,為日本學術會議所屬之學者委員會學術體制分科會經審議後,就上述科學技術基本計畫之擬定發表意見,預計會於內閣府召開之綜合科學技術與創新會議(総合科学技術・イノベーション会議)中提出,作為訂定第6期科學技術基本計畫之重要參考。
本建言除了持續強調投資基礎科學研究的重要性,亦關注學術多元發展與提升整合性,強調優越學術基礎的建構、發展、以及用以解決問題之能力提升,繫諸各領域、地區、個人所關切議題與思考方式之不同所帶出的多元性,而為克服現代社會面臨的各種課題,應注重自然科學與人文社會科學之跨域合作以形成具統合性的知識基礎,同時須平衡投入各學門的研究預算,避免科學技術投資過分集中於特定的學術領域。具體的方向上,本建言主要提供了4個規劃面向:(1)強化對博士生就學的經濟上支援,並增加相關就業機會,如增加大學終身教職員額與高階技術人才職位等;(2)為進一步促成前述的學術多元發展,重新檢討並建構政府資助各類研究之制度藍圖,除了持續資助基礎研究及應用研究之外,強化對年輕學者的補助,亦期待能對需持續性進行之研究(如生命科學等需長時間蒐集並保存資料之領域)提供長期或無限期的支援;(3)追求科研參與者的多元化(如鼓勵女性、外國人、身障者的投入),以實現科學家社群之多元發展;(4)促成科學家社群以個人身分或透過組織參與科學技術政策形成,避免相關政策的擬定與施行未能切合研究實務之需求。
本文為「經濟部產業技術司科技專案成果」
亞馬遜公司(Amazon)將其Android Apps商店命名為「Appstore」後,遭蘋果公司(Apple Inc.)以「Appstore」為其所擁有的商標,控告亞馬遜公司(Amazon)侵害其商標權並違反不公平競爭法。而亞馬遜公司(Amazon)則以「Appstore」為一個「通用名稱」加以反駁。亞馬遜公司(Amazon)認為,「Appstore」這個詞已經成為一個「通用名稱」,它代表著一個應用程式的資料庫之意,而沒有專門代表著蘋果公司(Apple Inc.)的意義。雙方歷經兩年訴訟後,根據加州聯邦法院資料,兩家公司的代表,於今年(2013)5月初與6月中曾兩度進行和解談判,但截至目前為止,雙方並未達成和解協議。 根據美國專利商標局(USPTO)商標申請紀錄,蘋果公司(Apple Inc.)以「Appstore」於2008年3月6日向美國專利商標局(USPTO)提出在第35類(提供通過電腦軟體為特色的零售店鋪服務、在移動數位電子設備及其他消費類電子產品上使用的電腦軟體為特色之零售商店服務等)、第38類(全球電腦網路、無線網路和電子通信網路及資訊傳輸、維護等)、第42類(提供臨時使用非可下載電腦軟體進行計畫,組織和訪問視訊,多媒體內容的電腦軟體程式等服務等)的商標申請案,其中並提出已於2008年7月10日使用之相關主張,惟本件商標申請案尚未獲得最終核准。而包括微軟等其他公司,都向美國專利商標局(USPTO)提出駁回該商標之請求,以阻止蘋果公司(Apple Inc.)的申請,以確保不會因為蘋果公司(Apple Inc.)之商標註冊而影響自身使用該名稱之權利。 但因本件經過兩輪談判,蘋果公司(Apple Inc.)與亞馬遜公司(Amazon)仍未就侵權爭議達成和解。故雙方間的商標爭議很可能最終須於法庭內解決。目前審判時間已被定於今年8月。「Appstore」將被認為屬於蘋果公司的專屬商標,亦或屬於公眾皆可使用的通用名稱,結果值得拭目以待。
政府資訊加值利用與管理法制研究:以美國及英國為例 落實完善數位資料管理機制,有助於降低AI歧視及資料外洩風險落實完善數位資料管理機制, 有助於降低AI歧視及資料外洩風險 資訊工業策進會科技法律研究所 2023年07月07日 近年來,科技快速發展,AI(人工智慧)等技術日新月異,在公私部門的應用日益廣泛,而且根據美國資訊科技研究與顧問公司Gartner在2023年5月發布的調查指出,隨著由OpenAI開發的ChatGPT取得成功,更促使各領域對於AI應用的高度重視與投入[1],與此同時,AI歧視及資料外洩等問題,亦成為社會各界的重大關切議題。 壹、事件摘要 目前AI科技發展已牽動全球經濟發展,根據麥肯錫公司近期發布的《生成式人工智慧的經濟潛力:下一個生產力前沿(The next productivity frontier)》研究報告指出,預測生成式AI(Generative AI)有望每年為全球經濟增加2.6兆至4.4兆的經濟價值[2]。同時在美國資訊科技研究與顧問公司Gartner對於超過2500名高階主管的調查中,45%受訪者認為ChatGPT問世,增加其對於AI的投資。而且68%受訪者認為AI的好處大於風險,僅有5%受訪者認為風險大於好處[3]。然而有社會輿論認為AI的判斷依賴訓練資料,將可能複製人類偏見,造成AI歧視問題,而且若程式碼有漏洞或帳戶被盜用時,亦會造成資料外洩問題。 貳、重點說明 首先,關於AI歧視問題,以金融領域為例,近期歐盟委員會副主席Margrethe Vestager強調若AI用於可能影響他人生計的關鍵決策時,如決定是否能取得貸款,應確保申請人不受性別或膚色等歧視[4],同時亦有論者認為若用於訓練AI的歷史資料,本身存有偏見問題,則可能導致系統自動拒絕向邊緣化族群貸款,在無形之中加劇,甚至永久化對於特定種族或性別的歧視[5]。 其次,關於資料外洩問題,資安公司Group-IB指出因目前在預設情況下,ChatGPT將保存使用者查詢及AI回應的訊息紀錄,若帳戶被盜,則可能洩露機敏資訊。據統計在2022年6月至2023年5月間,在亞太地區有近41000個帳戶被盜,而在中東和非洲地區有近25000個帳戶被盜,甚至在歐洲地區也有近17000個帳戶被盜[6]。另外在2023年3月時,ChatGPT除了發生部分用戶能夠檢視他人聊天紀錄標題的問題外,甚至發生個人資料外洩問題,即用戶可能知悉他人的姓名、電子郵件,付款地址,信用卡到期日及號碼末四碼等資料[7]。 參、事件評析 對於AI歧視及資料外洩等問題,應透過落實完善數位資料治理與管理機制,以降低問題發生的風險。首先,在收集訓練資料時,為篩選適合作為模型或演算法基礎的資料,應建立資料評估或審查機制,減少或避免使用有潛在歧視問題的資料,以確保分析結果之精確性。 其次,不論對於訓練資料、分析所得資料或用戶個人資料等,均應落實嚴謹的資料保密措施,避免資料外洩,如必須對於資料進行標示或分類,並依照不同標示或分類,評估及採取適當程度的保密措施。同時應對於資料進行格式轉換,以無法直接開啟的檔案格式進行留存,縱使未來可能不慎發生資料外洩,任意第三人仍難以直接開啟或解析資料內容。甚至在傳送帳戶登入訊息時,亦應採取適當加密傳送機制,避免遭他人竊取,盜取帳戶或個人資料。 財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境完善,於2021年7月發布「重要數位資料治理暨管理制度規範(Essential Data Governance and Management System,簡稱EDGS)」,完整涵蓋數位資料的生成、保護與維護,以及存證資訊的取得、維護與驗證的流程化管理機制,故對於不同公私部門的AI相關資料,均可參考EDGS,建立系統性數位資料管理機制或強化既有機制。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Gartner, Gartner Poll Finds 45% of Executives Say ChatGPT Has Prompted an Increase in AI Investment (May 3, 2023), https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (last visited June 30, 2023). [2]McKinsey, The economic potential of generative AI: The next productivity frontier (June 14, 2023), https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/the-economic-potential-of-generative-AI-the-next-productivity-frontier#introduction (last visited June 30, 2023). [3]Gartner, supra note 1. [4]Zoe Kleinman, Philippa Wain & Ashleigh Swan, Using AI for loans and mortgages is big risk, warns EU boss (June 14, 2023), https://www.bbc.com/news/technology-65881389 (last visited June 30, 2023). [5]Ryan Browne & MacKenzie Sigalos, A.I. has a discrimination problem. In banking, the consequences can be severe (June 23, 2023), https://www.cnbc.com/2023/06/23/ai-has-a-discrimination-problem-in-banking-that-can-be-devastating.html (last visited June 30, 2023). [6]Group-IB, Group-IB Discovers 100K+ Compromised ChatGPT Accounts on Dark Web Marketplaces; Asia-Pacific region tops the list (June 20, 2023), https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/ (last visited June 30, 2023). [7]OpenAI, March 20 ChatGPT outage: Here’s what happened (Mar. 24, 2023),https://openai.com/blog/march-20-chatgpt-outage (last visited June 30, 2023).
美國民權辦公室發布遠距醫療隱私和資訊安全保護相關建議美國衛生及公共服務部(U.S. Department of Health and Human Services, HHS)民權辦公室(Office for Civil Rights, OCR)於2023年10月18日發布了兩份文件,針對遠距醫療情境下的隱私和資訊安全保護,分別給予病人及健康照護服務提供者(下稱提供者)實務運作之建議。本文主要將發布文件中針對提供者的部分綜合整理如下: 1.於開始進行遠距醫療前,提供者應向病人解釋什麼是遠距醫療及過程中所使用的通訊技術。讓病人可瞭解遠距醫療服務實際運作方式,若使用遠距醫療服務,其無須親自前往醫療院所就診(如可以透過語音通話或視訊會議預約看診、以遠端監測儀器追蹤生命徵象等)。 2.提供者應向病人說明遠距醫療隱私和安全保護受到重視的原因。並且向病人告知為避免遭遇個資事故,提供者對於通訊技術採取了哪些隱私和安全保護措施,加以保護其健康資訊(如診療記錄、預約期間所共享資訊等)。 3.提供者應向病人解釋使用通訊技術對健康資訊帶來的風險,以及可以採取哪些方法降低風險。使病人考慮安裝防毒軟體等相關方案,以防範病毒和其他惡意軟體入侵;另網路犯罪者常利用有漏洞之軟體入侵病人裝置,竊取健康資訊,因此可於軟體有最新版本時,盡快更新補強漏洞降低風險;若非於私人場所預約看診,病人則可透過調整裝置或使用即時聊天功能,避免預約資訊洩漏。 4.提供者應協助病人保護健康資訊。確保病人知悉提供者或通訊技術供應商聯絡資訊(如何時聯絡、以什麼方式聯絡等),使病人遭網路釣魚信件或其他方式詐騙時可以加以確認;也應鼓勵病人有疑慮時都可洽詢協助,包括如何使用通訊技術及已採取之隱私和安全保護措施等。 5.提供者應使病人了解通訊技術供應商所採取之隱私和安全保護措施。告知病人通訊技術供應商名稱、採取之隱私和安全保護措施,及如何得知前開措施內容;使病人了解進行遠距醫療時是否使用線上追蹤技術。 6.提供者應告知病人擁有提出隱私投訴的權益。若病人認為自身健康隱私權受到侵犯,得透過OCR網站進行投訴。