美國加州「Asilomar人工智慧原則決議」

  美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下:

(1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。
(2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。
(3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。
(4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。
(5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。
(6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。
(7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。
(8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。
(9)人工智慧所產生之責任,應由設計者以及建造者負擔。
(10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。
(11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。
(12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。
(13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。
(14)人工智慧之技術應盡力滿足越多人之利益。
(15)人工智慧之經濟利益,應為整體人類所合理共享。
(16)人類對於人工智慧之內在目標應享有最終設定權限。
(17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。
(18)人工智慧所產生之自動化武器之軍備競賽應被禁止。
(19)政策上對於人工智慧外來之發展程度,不應預設立場。
(20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。
(21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。
(22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。
(23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國加州「Asilomar人工智慧原則決議」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8213&no=67&tp=5 (最後瀏覽日:2025/12/12)
引註此篇文章
你可能還會想看
韓國智慧財產局提出「營業秘密原本證明」可直接申請海牙認證,強化營業秘密跨境保護

2025年9月15日,韓國智慧財產局(Korean Intellectual Property Office,下稱KIPO)與韓國外交部轄下之海外僑胞廳 (Overseas Koreans Agency,下稱OKA)共同宣布:即日起,「營業秘密原本證明(Trade Secret Original Certificate)」無須經過公證人的公證程序,即可直接申請海牙認證(Apostille)。此項政策旨在簡化韓國企業在海外保護其營業秘密的程序,減輕企業的時間與金錢成本。 在KIPO與OKA尚未推出該新政策前,依據韓國《不正競爭防止法》第 9-2條第3款規定,推定註冊此營業秘密原本證明者在註冊的時點,已擁有該電子文件所記載的資訊。然而,海牙認證僅頒發給「官方文件」,非官方機構所核發的營業秘密原本證明在國際上不會被視為官方文件,即營業秘密原本證明僅在韓國國內生效。當韓國企業積極擴展海外市場或在海外面臨營業秘密侵權糾紛時,企業如欲將營業秘密原本證明申請海牙認證以作為跨國訴訟之證據,需經過以下3步驟: (1)將其含有營業秘密內容的電子文件,向KIPO指定的原本證明機構申請註冊「營業秘密原本證明」。 目前KIPO指定4家非官方\機構,如韓國智慧財產權保護院(한국지식재산보호원)、LG CNS、RedWitt、Onnuri 國際營業秘密保護中心。以韓國智慧財產權保護院之流程為例,該機構自電子文件生成獨一無二的數位指紋(Hash,或稱雜湊值),與時間戳技術結合,製作營業秘密原本證明,以確保在特定時間點,該文件確實存在,且之後未被變更。即使對文件的微小修改都會影響數位指紋,使營業秘密原本證明失效。 (2)將其營業秘密原本證明交由公證人公證。 (3)取得公證人公證後,方得依據《關於官方文件簽發海牙認證及領事認證規定》(總統令)(공문서에 대한 아포스티유 및 본부영사확인서 발급에 관한 규정」(대통령령))向主管機關(即OKA)申請海牙認證。 9月新政策將「營業秘密原本證明」納入「可直接申請海牙認證的文件範圍」,即企業在取得由 KIPO 指定機構所核發的原本證明後,不須經公證流程,可直接申請海牙認證。此舉簡化行政程序,且經海牙認證為韓國真實文件之營業秘密原本證明,在海外爭議中可作為官方文件,提升公信力。 綜上可得知,韓國營業秘密原本證明的服務僅留存電子文件的最終版本所生成之數位指紋,而非註冊當時的電子文件本身。因此,本文建議企業仍應先打好文件管理機制的地基,簡要說明如下: 1.第一步,選定有價值、有高度洩密風險或即將對外共享的數位資料(如研發紀錄、客戶名單、演算法等),明確該資料相關之權責人員與作業規範。 2.第二步,建立可行之重要數位資料的生命週期(自原始資料之生成、保護到維護,再延伸至存證資訊之取得、維護與驗證)流程化管理機制,確認具備與管理流程相應的資源(如人員面之保密契約、教育訓練以及環境面之系統備份等)。 3.第三步,檢視現行規範與實際執行之情況與分析落差原因。 4.第四步,因應管理機制落實之程度、內外部變動之需求,進而調整合適的管理作法。 前述建議之管理作法已為資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》所涵蓋,企業如欲強化數位資料管理機制,可以參考此規範。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

美國FDA公告食品營養強化物添加之指導原則

  添加營養素到一般之食物中,對於維持或增進整體食物之營養品質來說,是一個非常有效率之方式。然而,不當添加或濫用這些外加之營養素,卻可能造成消費者過度或不足攝取某些特定之營養成分,甚至更可能造成某些食物之營養價值有誤導或詐騙消費者之嫌。   美國食品藥物管理局(Food and Drug Administration,以下簡稱FDA)為了統一回應食品廠商、其他聯邦主管機關以及相關學會之問題,針對添加到食物中之必需營養補充品,在2015年11月6日公告了一份指導原則(Questions and Answers on FDA’s Fortification Policy)。本指導原則以Q&A之形式呈現,,列出FDA對於食品營養強化物(Fortification of Foods)政策之態度(並未變更其自1980年代以來對於食品營養強化物之向來立場)以及建議遵循規定。   FDA建議食品營養強化物添加之基本原則如下:校正飲食之缺陷;補充因食物於處理、流通之過程中所喪失之營養素;根據食物整體熱量計算之結果,均衡添加各種食品營養強化物等。   本指導原則僅適用於人類使用之食品,動物用食品並不在其建議範圍內;另外,其亦不適用於嬰幼兒配方或是一般之保健營養品,其僅適用於一般常規之食物,例如:牛奶、果汁、豆漿、麥片、麵包、通心粉、乳瑪琳等。但是要注意,針對一些新鮮的食物或本身即非營養的食物,例如:新鮮蔬菜、魚肉類、糖、甜點、碳水化合物等,並不建議再額外添加食品營養強化物。   另外,只有人體所必須的營養素(essential nutrients)才可額外添加到常規的食品中,亦即所有添加物都須依據膳食營養素參考攝取量(Reference Daily Intakes;RDI)所規定之種類及建議量,做適當的添加;且添加物必須合法且安全。   食品營養強化物之標示,則必須依據食品標示相關法規恰當為之,不可出現會誤導消費者的任何詞彙,也不宜做出任何可以預防營養素缺乏之陳述,因為這麼做可能使消費者誤認有添加物的食品其營養成分較原始食物高。   本指導原則對廠商並無強制力,然要是廠商有違反本指導原則之情形,FDA將會發出警告信,顯示出FDA強烈建議廠商遵守本指導原則之決心。

從「氣候變遷行動方案」觀察美國能源科技法制政策發展

人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法

.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。

TOP