日本經產省和總務省共同發布AI業者指引草案,公開徵集意見

因應生成式AI(Generative AI)快速發展,日本經產省和總務省彙整及更新自2017年起陸續發布之各項AI指引,於2024年1月19日共同公布「AI業者指引草案」(AI事業者ガイドライン案,以下簡稱指引),公開向民眾徵集意見。上述草案除提出AI業者應遵守以人為本、安全性、公平性、隱私保護、透明性、問責性、公平競爭、創新等共通性原則外,並進一步針對AI開發者(AI Developer)、AI提供者(AI Provider)及AI利用者(AI Business User)提出具體注意事項,簡述如下:

(1)AI開發者:研發AI系統之業者。由於在開發階段設計或變更AI模型將影響後續使用,故指引認為開發者應事先採取可能對策,並在倫理和風險之間進行權衡,避免因重視正確性而侵害隱私或公平性,或因過度在意隱私保護而影響透明性。此外,開發者應盡量保留紀錄,以便於預期外事故發生時可以進行說明。

(2)AI提供者:向AI使用者或非業務上使用者提供AI系統、產品或服務之業者。提供者應以系統順利運作及正常使用為前提,提供AI系統和服務,並避免侵害利害關係人之利益。

(3)AI使用者:基於商業活動使用AI系統或服務之業者。使用者應於提供者所設定之範圍內使用AI,以最大限度發揮AI效益,提高業務效率及生產力。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 日本經產省和總務省共同發布AI業者指引草案,公開徵集意見, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9146&no=55&tp=1 (最後瀏覽日:2026/05/17)
引註此篇文章
你可能還會想看
日本經產省預計向國會提出「不正競爭防止法」修正草案進行審議

美國醫療保險將為醫院提供鐮狀細胞疾病基因療法的創新支付鼓勵措施

美國醫療保險和醫療補助服務中心(Centers for Medicare and Medicaid Services, CMS)於2024年4月10日發布了2025財年(Fiscal year 2025, Oct. 1, 2024, to Sept. 30, 2025)醫療保險醫院住院預期支付系統(Inpatient Prospective Payment System, IPPS)規則草案(proposed rule)。 考量到細胞療法費用高、可近用性低,2025財年規則草案便包含為醫院提供治療鐮狀細胞疾病(Sickle Cell Disease, SCD)基因療法,其新技術附加支付(New Technology Add-on Payment, NTAP)附加百分比從原本的65%提高到75%的創新支付措施。 NTAP方案是2001年由CMS推出,旨在激勵醫院採用新技術和新療法。NTAP規定新的醫療服務或技術必須滿足以下3個標準,才有資格獲得附加支付: 1.新穎性:醫療服務或技術必須是新的。一旦此治療已經被認為不是新技術,附加支付就會結束。 2.費用過高:醫院在使用新技術時,可能會產生成本超出標準的住院病患支付限額,該技術在現有醫療保險嚴重程度診斷相關群組(Medicare Severity Diagnosis-Related Groups, MS-DRG)系統下不足以支付。 3.實質的臨床改善:與目前可用的治療方法相比,使用該技術其臨床資料必須要顯示確實能改善特定病人群體的臨床結果。 NTAP透過提供經濟激勵,支持醫療機構在初期階段採用新技術,從而促進醫療創新並改善患者治療效果。SCD為一種遺傳性疾病,對美國黑人影響嚴重,且治療選擇有限。因此該創新支付鼓勵措施將使醫院可以獲得更多的資金來執行昂貴的SCD基因療法,進一步促進SCD病人獲得最新的治療,且能減少SCD長期醫療照護的相關成本。 本文同步刊載於stli生醫未來式網站(https://www.biotechlaw.org.tw)

美國化學營業秘密哪些必須揭露?哪些可以保密?

  為因應有害化學物質所產生之公安事件,2015年6月8號美國職業安全管理局(Occupational Safety and Health Administration,簡稱(OSHA))發佈一項措施,針對具危險性化學物質之運輸過程,規範處理程序,包括製造商須提供物質安全數據表,以及可能具有風險的有害物質說明書等。   為此,OSHA考量到此將影響化學製造商營業秘密保護,遂提出判斷準則,以釐清對於化學製造商而言,何種情況將構成營業秘密,包括:(1)在一定的程度內該資訊是否已被外界所知;(2)在一定程度內,該資訊對於員工或其他參與者是否已知;(3)是否有一定程度對於該資訊內容進行保護措施;(4)該資訊對於競爭對手是否有價值;(5)是否投入大量時間和金錢開發該資訊;(6)該資訊對企業而言是否得被他人簡易取得與複製。   進而在符合上述營業祕密要件時,企業即無須對一般員工(非研發工程師)揭露化學公式等內容,其中包括一般操作人員或者運輸人員等。然而考量到此等人員接觸化學物質情況頻繁,倘若操作人員或者運輸人員工作過程中,因有害但屬營業祕密之化學物質造成意外傷害,為平衡公眾安全與營業秘密之保障,OSHA要求化學製造商必須立即提供醫護人員有害化學物質方程式等內容,但可要求醫護人員簽訂保密協議,藉此兼顧公安與營業秘密之保障。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

TOP