日本發布以人為本AI社會原則

  日本內閣於2018年6月15日決議組成跨部會之統合創新戰略推進會議,並於2019年3月29日發布AI戰略,其中的倫理面向為以人為本之AI社會原則(下稱AI社會原則),希冀藉有效安全的活用AI,推動「AI-Ready 社會」,以實現兼顧經濟發展與解決社會課題的「Society5.0」為最終目標。

  為構築妥善應用人工智慧的社會,AI社會原則主張應尊重之價值理念如下:

(一) 尊重人類尊嚴的社會:AI應作為能激發人類發揮多樣能力和創造力的工具。
(二) 多元性和包容性的社會(Diversity & Inclusion):開發運用AI以共創多元幸福社會。
(三) 永續性的社會(Sustainability):透過AI強化科技,以創造能持續解決社會差距與環境問題的社會。

  而AI社會原則核心內容為:

(一) 以人為本:AI使用不得違反憲法或國際保障之基本人權。
(二) AI知識(literacy)教育:提供必要的教育機會。
(三) 保護隱私:個人資料的流通及應用應妥適處理。
(四) 安全確保:把握風險與利益間之平衡,從整體提高社會安全性。
(五) 公平競爭確保:防止AI資源過度集中。
(六) 公平性、說明責任及透明性任。
(七) 創新:人才與研究皆須國際多樣化,並且建構產官學研AI合作平台。

相關連結
相關附件
※ 日本發布以人為本AI社會原則, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8264&no=55&tp=1 (最後瀏覽日:2026/05/14)
引註此篇文章
你可能還會想看
法國國家資訊自由委員會將推出符合GDPR的人工智慧操作指引(AI how-to sheets)

法國國家資訊自由委員會(CNIL)於2023年10月16日至11月16日進行「人工智慧操作指引」(AI how-to sheets)(下稱本指引)公眾諮詢,並宣布將於2024年初提出正式版本。本指引主要說明AI系統資料集建立與利用符合歐盟一般資料保護規則(GDPR)之作法,以期在支持人工智慧專業人士創新之外,同時能兼顧民眾權利。 人工智慧操作指引主要內容整理如下: 1.指引涵蓋範圍:本指引限於AI開發階段(development phase),不包含應用階段(deployment phase)。開發階段進一步可分為三階段,包括AI系統設計、資料蒐集與資料庫建立,以及AI系統學習與訓練。 2.法律適用:當資料處理過程中包含個人資料時,人工智慧系統的開發與設計都必須確定其適用的法律規範為何。 3.定義利用目的:CNIL強調蒐集及處理個資時應該遵守「明確」、「合法」、「易懂」之原則,由於資料應該是基於特定且合法的目的而蒐集的,因此不得以與最初目的不相符的方式進一步處理資料。故明確界定人工智慧系統之目的為何,方能決定GDPR與其他原則之適用。 4.系統提供者的身分:可能會是GDPR中的為資料控管者(data controller)、共同控管者(joint controller)以及資料處理者(data processor)。 5.確保資料處理之合法性:建立AI系統的組織使用的資料集若包含個人資料,必須確保資料分析與處理操作符合GDPR規定。 6.必要時進行資料保護影響評估(DIPA)。 7.在系統設計時將資料保護納入考慮:包含建立系統主要目標、技術架構、識別資料來源與嚴格篩選使用…等等。 8.資料蒐集與管理時皆須考慮資料保護:具體作法包含資料蒐集須符合GDPR、糾正錯誤、解決缺失值、整合個資保護措施、監控所蒐集之資料、蒐集之目的,以及設定明確的資料保留期限,實施適當的技術和組織措施以確保資料安全等。 對於AI相關產業從事人員來說,更新AI相關規範知識非常重要,CNIL的人工智慧操作指引將可協助增強AI產業對於個資處理複雜法律問題的理解。

新創及中小企業如何因應美國之《訴訟透明法案》

今年7月,美國國會議員Issa提出了《2024年訴訟透明法案》(H.R. 9922, the Litigation Transparency Act of 2024,下稱《訴訟透明法案》),要求當事人揭露民事訴訟中所取得之金融支援的來源,如商業貸款機構等,以提高訴訟透明度並降低濫訴之情形,惟此提案恐導致美國新創及中小企業更難成功起訴竊取其專屬技術之大企業。 近年來,許多大型科技公司從較小的競爭對手竊取其專屬技術,然而僅有少數案例成功取得賠償金,如:伊利諾州地方法院要求Amazon向軟體公司Kove IO支付5.25億美元的賠償金等。這是由於新創及中小企業縱有證據證明其智慧財產權被盜,在訴訟中多面臨沒有足夠資力與大型科技公司抗衡之窘境,因此往往被迫接受遠低於其所受損失之和解金。透過這種方式,大型科技公司能掌握技術並支付低於取得該技術授權所需之成本,因此被稱之為「有效侵權(efficient infringement)」。 新創及中小企業近期透過與第三方金融資助者協議共享訴訟取得之賠償等方式,降低其進入訴訟程序的經濟門檻,以對抗大型科技公司所採取之「有效侵權」。然而最近一系列案例顯示,中國大陸所支持的第三方金融資助者助長了針對美國企業之智財訴訟,引發了國家安全問題,故立法者為降低營業秘密被外國競爭對手取得之風險、避免無意義之訴訟被廣泛提起,要求當事人揭露其於民事訴訟中所取得之金融支援來源。若《訴訟透明法案》通過,原告所採取之法律策略將可能外洩,而第三方金融資助者亦將受到各方之抨擊,進而導致新創及中小企業在訴訟中更難取得金融支援。 綜上所述,若要降低訴訟之可能性,新創及中小企業須強化其對於專屬技術之保護,從根本減少專屬技術洩露之風險,以避免訴訟發生或進入後端訴訟。有鑑於新創及中小企業與大企業相比,在智財保護觀念上更接近學研單位,且對於營業秘密之管理多未臻完備,因此為確保其能有效落實對營業秘密之管控,建議新創及中小企業可參考智慧局所發布之《學研機構營業秘密管理實作要領》,量身訂作符合自身需求的營業秘密管理制度,並循序完善相應之營業秘密管理措施,以降低專屬技術被竊取的風險。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

美國情報體系發布「情報體系運用人工智慧倫理架構」

  美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。

Apple Inc. 因販售個人資料面臨團體訴訟

  三位來自Massachusetts州的州民,以Apple Inc.(下稱Apple)為被告,於該州地方法院提起團體訴訟。其等主張在2012年至2013年間,透過信用卡於Massachusetts州Apple的零售商店購買該公司相關商品時,Apple有過度蒐集與不當利用個人資料之情形。據Apple網站指出,消費者得選擇透過信用卡的方式購買商品,然若選擇信用卡方式付費,必須提供個人相關識別訊息,包含完整的郵政編碼,如果提供不完整,Apple將不會允許使用消費者使用信用卡方式付費;且Apple亦在網站上聲稱保有允許提供該類訊息予提供產品和服務的合作夥伴,或得利用該類訊息幫助行銷的權利。故原告等透過信用卡消費後,收到不必要的市場行銷資訊;又Apple將原告等人可識別的個人資訊銷售第三方公司,並在未顧及原告等權益下,挪用了該具有經濟價值的個人可識別資訊。基於上述理由,原告等請求至少500萬元美金之損害賠償,其中不包含訴訟費用以及相關利息等其他費用。   依據Mass. Gen. Laws ch. 93 §105 規定,不論是個人、商號、合夥、公司或一切營業人,當接受信用卡交易模式時,並不能要求消費者填寫任何個人可識別的資訊。若法院同意原告們的訴求,Apple將因「不公平且欺騙之貿易行為」而被認定違反該州法律而必須負擔賠償責任,且Apple也將被要求停止蒐集全州的個人可識別資料。

TOP