本文為「經濟部產業技術司科技專案成果」
2007年2月份美國加州聖地牙哥法院甫宣判,微軟公司必須支付約15億美元(折合新台幣近500億元)給阿爾卡特(Alcatel-Lucent)公司,以解決微軟公司產品使用MP3技術所引發的糾紛。不過在3月初,另一位聯邦法官Rudi Brewster做出一項裁定,駁回阿爾卡特公司所有的主張,因為阿爾卡特公司主張微軟公司侵害一項其所有之有關語音編碼的技術專利。 微軟與阿爾卡特的專利官司可追溯至2003年,當時未合併前的朗訊(Lucent,二公司於2006下半年合併)公司控告PC製造商Dell與Gateway使用其所擁有的MP3技術專利。微軟公司後來被捲入這場專利糾紛,與阿爾卡特(Alcatel-Lucent)公司專利官司的糾紛日益擴大。二家公司爭訟的結果,在2月份的判決,根據2003年5月以來微軟公司所賣出的每台Windows PC數目,來計算出可能造成的損失,所以微軟公司才必須付出約15億美元的天價。 但是3月的這項裁定,卻阻止阿爾卡特公司趁勝追擊。在知識經濟的時代中,專利訴訟的結果甚至可能影響一家公司的興亡,相信沒有多少家公司可以輕易付出15億美元的賠償,如何確保不侵犯他人的智慧財產是很重要的課題。此外,爭訟的雙方都是業界的重量級廠商,不論結果如何,後續的發展都值得大家關注。
智慧聯網時代巨量資料法制議題研析-以美國隱私權保護為核心 日本於「再興戰略2016」中公布今後醫療等領域徹底ICT化之相關政策日本政府於2016年6月2日經內閣議決「再興戰略2016」,為提升國民健康、提高平均壽命,以「世界最先進的健康國家」大篇幅宣布未來政策。其中,在「醫療、長照等領域徹底ICT化」方面之具體新措施如下: (1)醫療等領域中導入ID制度 日本厚生勞動省於2015年11月18日召開第10次「醫療等領域利用識別號碼制度之研究會」(医療等分野における番号制度の活用等に関する研究会),並於次月公布相關研究報告書,其內容包含導入「醫療保險線上資格審查」以及「醫療ID制度」,上述制度預計自2018年開始階段性運用,並於2020年正式實施,因此,本年度工作目標設定為,著手勾勒具體之應用系統機制,並針對實務面相關議題進行討論,自明年開始落實系統開發,整體而言,日本現階段最重要的目標就是促使醫療領域徹底數位化及標準化。 (2)透過巨量資料之利用,增進相關領域之創新 「次世代醫療ICT基礎設施協議會」(次世代医療ICT基盤協議会策定)將延續2016年3月由其所策定之「醫療領域資料利用計畫」(「医療等分野データ利活用プログラム」,意即加強各資料庫(例如醫療資訊資料庫MID-NET)之交流並擴大相關應用。 此外,在現行法規範下,為達成促進醫療領域資訊利用、醫藥相關研發之目標,應成立「代理機關(暫稱)」,以便於擴大收集醫療、檢驗等數據資料,並妥善管理與去識別化,日本政府於「再興戰略2016」中將此機關之設置列為次世代醫療ICT基礎設施協議會之重要工作項目,期望透過協議會對相關制度之討論,能在明年訂定出具體的法律措施。 (3)個人醫療和健康資訊之綜合利用 日本政府期望透過不同終端設備收集關於醫療、健康等資料,並鼓勵民間依此開發新市場,但在此之前,政府必須先行建構一個能良性發展的環境。首先,為實現針對個人需求量身打造的「個別化健康服務」,保險業者、握有病歷的機構、健檢中心及可穿戴式終端設備等,得經當事人同意後收集、分析其日常健康資訊,該「個別化健康服務」之實證計畫將於本年度啟動,由地區中小企業開始。 為強化醫療保險業者去整合運用相關資源並應用於預防、健康醫學上,政府機關應訂定一些獎勵措施,鼓勵業者將ICT技術活用於預防、健康醫學領域上。 此外,今年度「次世代醫療ICT基礎設施協議會」還有一項重要的工作項目,即建立可記錄患者所有就醫過程資訊之系統(Peronal Health Recaord,簡稱PHR),讓相關醫療資料得以流通運用。同時,日本政府希望能在2018年達成「地區性醫療情報聯結網路」,並普及到全國各地,這麼做的目的在於,過往因為醫療資訊不流通,以及重症照護上的斷層,使身心障礙者往往難以離開長期利用的醫療環境,新政策希望讓這些患者無論遷居何處,在全國各地皆能安心接受醫療服務,而不受限於地區限制。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。