日本內閣官房所屬之健康‧醫療戰略室於2017年3月, 向國會提出《有助醫療領域研究開發之匿名加工醫療資訊法律案》(医療分野の研究開発に資するための匿名加工医療資訊に関する法律案)。「健康‧醫療戰略室」係於2013年2月成立,並於同年8月根據《健康‧醫療推進法》設置「健康‧醫療戰略推進本部」。該部於2017年3月10日提出《有助醫療領域研究開發之匿名加工醫療資訊法律案》,針對醫療資訊匿名加工業者進行規制,使他人可安心利用經過去識別化處理之資訊,以便促進健康、醫療方面之研究及產業發展,形成健康長壽社會。上開法案主要可分為兩個部份︰
針對上述第2點之認定,為確保資訊安全,政府應設置認定機構,以便確認業者符合一定基準,並具備足夠之匿名加工技術,可為醫療個資去識別化。此外,在醫療資訊處理方面,該法案則規定醫療機關可在事先告知本人,且本人未拒絕提供時,將醫療資訊提供給業者。
本文為「經濟部產業技術司科技專案成果」
當前科學家正極力從廢棄的生物物質(biomass)中,尋找可以做為燃料使用的資源(biofuel)。使用生物燃料的概念與全球氣候變遷以及石油價格一再攀高有關,生物燃料是指在不影響食物供應的前提下,使用木材、稻桿或麥桿、庭園廢棄物等作為第二代的燃料來源。不過在鼓勵發展生物燃料之餘,發展此一領域之技術卻亦有不可忽略的問題有待解決。 以英國為例,英國法律規定在2010年以前,英國政府必須確保所有公路運輸使用的燃料中,至少有5%是使用生物燃料;而最近英國的能源檢視報告則建議,在2015年前,此項生物燃料使用的門檻值應達10%。英國國家非食用作物研究中心(National Non-Food Crops Centre, NNFCC)近期也提出報告,指出英國每年農作收成後皆剩餘大量的小麥、甜菜,若能輔以更多的政府促進措施,例如租稅減免,則達成2010年5%的門檻指標,並非難事。不過若想要達成2015年10%的指標,英國政府則必須另外從國外進口生物燃料。 生物廢棄物的利用指的是把各地方的廢棄物以及非食用作物拿來轉化成為生物燃料。使用生物燃料最大的缺點是建置成本(start-up costs)過高,舉例來說,使用甜菜或黃豆來生產生質柴油(biodiesel)的成本,每英噸約為700至800歐元,其中把生物廢棄物液態化的過程(biomass to liquids (BTL) process),約需每英噸450至500歐元;而要建置一個第一代生物燃料廠乃至運作,其投資費用高達5千萬歐元,第二代生物燃料的生產所需建置成本,則可能為前述數字的五至十倍。有鑑於此,NNFCC透過經濟模式的運算,建議英國政府應對第二代生物燃料廠提供每公升至少35%的租稅減免優惠(目前英國政府僅給予每公升20%的租稅減免優惠),始能鼓勵民間部門進行相關投資。 另一項發展生物燃料的隱憂則是,由於生物燃料與食物的來源都是取自於自然界的同一資源,發展生物燃料是否反而可能造成食物與燃料的爭戰中,侵蝕自然界的資源,最後反而導致各種價格的上升。
美國成人節目公司Vivid要求HTC改變手機名稱Vivid Entertainment是一家成人節目公司,聲稱HTC有商標侵權並已向這電子龍頭寄出警告函。 該公司主張HTC之智慧型手機HTC Vivid 侵害其Vivid Entertainment的商標,並表示HTC使用「Vivid」名稱於4G LTE裝置,造成消費者錯誤印象,以為HTC公司及產品皆為Vivid Entertainment附屬或有所關聯,可能造成消費者混淆或誤認。 Vivid Entertainment於11月14日寄出警告函,要求HTC停止使用該商標銷售手機,並宣稱從1984年已開始使用Vivid商標。該律師於此一警告函中表示HTC的手機名稱可能構成商標侵權、商標淡化及不實的來源標示。 Vivid Entertainment給予HTC回應此信之期限為11月21日,如未收到HTC回覆,Vivid Entertainment將進一步提出法律賠償。先前詢問HTC時,該公司表示:「我們正審視此一指控,我們不會有任何進一步評論,直到這問題被解決。」
美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。 為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。