美國加州「Asilomar人工智慧原則決議」

  美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下:

(1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。
(2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。
(3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。
(4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。
(5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。
(6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。
(7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。
(8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。
(9)人工智慧所產生之責任,應由設計者以及建造者負擔。
(10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。
(11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。
(12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。
(13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。
(14)人工智慧之技術應盡力滿足越多人之利益。
(15)人工智慧之經濟利益,應為整體人類所合理共享。
(16)人類對於人工智慧之內在目標應享有最終設定權限。
(17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。
(18)人工智慧所產生之自動化武器之軍備競賽應被禁止。
(19)政策上對於人工智慧外來之發展程度,不應預設立場。
(20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。
(21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。
(22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。
(23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國加州「Asilomar人工智慧原則決議」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8213&no=55&tp=1 (最後瀏覽日:2026/04/06)
引註此篇文章
你可能還會想看
歐盟執委會發布《歐盟晶片調查報告》提出四點發現以利未來晶片法相關計畫制定

  歐盟執委會(European Commission)於2022年8月2日發布《歐盟晶片調查報告》(European Chips Survey Report,下稱調查報告),調查結果顯示業界至2030年為止,對晶片之需求將倍數成長。調查報告於2022年2月啟動,其目的在收集有關晶片和晶圓(wafer)現行及未來需求的初步資訊,作為了解晶片供應危機對歐盟產業影響的第一步。調查報告總共收到141份來自半導體供需雙方廠商之回饋意見,其中有54.9%來自大型企業、17.3%來自中型企業、19.5%來自小型企業、8.3%來自微型企業。調查報告對上述意見進行分析,以提供來自半導體價值鏈洞察與預測的觀點。   調查報告主要包括以下四點:   (1) 預計2022年至2030年間晶片需求將倍增,未來對領先半導體技術的需求將顯著增加。   (2) 在選擇製造地點時,建立新晶片製造設施的公司將著重合格的勞工及遵循政府法令。   (3) 供應危機影響所有生態系統,預計至少會持續到2024年,迫使企業採取代價較高的緩解措施。   (4) 半導體研發資金主要與供應方相關,但補助計畫(support initiatives)也與需求方相關。   2022年2月8日歐盟執委會提出《歐盟晶片法草案》,旨在處理半導體短缺以及加強歐洲技術領先地位。隨著歐洲半導體專家小組開始研究監控與盤點架構,調查報告的結果可以協助制定《歐盟晶片法草案》與相關計畫。

國衛院生物製劑先導工廠 三年內投產

  慶祝國家衛生研究院成立十周年,國衛院表示將規劃成立生物製劑先導工廠,今年可發包動工,預計三年內完成,未來除了生產台灣本土性傳染病所需疫苗外,也協助衛生署流感疫苗自製計劃提供技術來源。行政院核准通過十二億元的生物製劑先導工廠,目前已進入招標階段,預計六、七月份可正式動工,預計三年後完工投產,未來將成為符合聯合國國際疫苗中心 (The International Vaccine Institute, IVI) 的規格的 GMP 生產線。   此外,配合衛生署的公共衛生計劃,國衛院疫苗研發中心也將建立本土性傳染病如腸病毒、 SARS 、白喉、百日咳、破傷風及日本腦炎的資料庫,部份疫苗市場潛力發展有限,但是透過國衛院的保存,讓我國具備完整的疫苗量產能力。政府計劃投資五十億元興建大型流行感冒疫苗工廠,國衛院將扮演技術提供的角色,包括參考實驗室,人員訓練,及微生物量產疫苗的開發,都將由生物製劑先導工廠負責。

美國法院將考慮命Google提交相關資料

  美國布希政府為捍衛1998兒童線上保護法(1998 Child Online Protection Act),要求法院命Google提交有關民眾使用該公司之搜尋引擎所輸入之關鍵字資料,以證明透過搜尋引擎,兒童使用電腦連結到色情網站並非不易。但是,Google主張此將會危及其使用者個人的隱私以及其營業秘密。   一名負責審理此案的法官於日前表示,其將會考量政府蒐集此等資料的需求以及Google之使用者的隱私保護議題,且其可能會允許司法部 (Justice Department) 可以接近使用 (access) 一部分由Google所建立的網站連結目錄,但並不是Google使用者所輸入的關鍵字資料。

經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。

TOP