美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下:
(1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。
(2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。
(3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。
(4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。
(5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。
(6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。
(7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。
(8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。
(9)人工智慧所產生之責任,應由設計者以及建造者負擔。
(10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。
(11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。
(12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。
(13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。
(14)人工智慧之技術應盡力滿足越多人之利益。
(15)人工智慧之經濟利益,應為整體人類所合理共享。
(16)人類對於人工智慧之內在目標應享有最終設定權限。
(17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。
(18)人工智慧所產生之自動化武器之軍備競賽應被禁止。
(19)政策上對於人工智慧外來之發展程度,不應預設立場。
(20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。
(21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。
(22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。
(23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。
本文為「經濟部產業技術司科技專案成果」
歐盟法院(Court of Justice of the European Union, CJEU)於2018年11月13日針對食品味道是否受著作權保護做出判決,其起因於荷商Levola Hengelo BV (“Levola”)認為同屬荷商之Smilde Foods BV (“Smilde”)所生產與銷售的起司“Witte Wievenkaas”,與Levola的起司產品“Heksenkaas”味道相同,因而控告Smilde侵害其“Heksenkaas”起司味道的著作權。 本案Levola於荷蘭地方法院中主張:食品味道著作權的定義,是指食用食品所產生之味覺整體印象,包括食品於嘴巴的口感,且該食品味道是製造者基於自身知識所創造。Levola並提出2006年6月16日荷蘭最高法院於原則上認定香水味道具有著作權的判決來支持其論點。 然而歐盟法院於本判決中指出,如果食品味道要受到著作權保護,那就必須符合「協調資訊社會下之著作權及相關權利指令」(Directive 2001/29/EC of the European Parliament and of the Council of 22 May 2001 on the harmonisation of certain aspects of copyright and related rights in the information society)(下稱2001/29/EC指令)對於著作(works)的定義,意即該著作應滿足原創性的要求,與著作能藉由精準並客觀的表達方式來識別。 係以,就本案所爭執之起司味道是否具有著作權,歐盟法院認為:因起司味道取決於消費者的味覺,其屬主觀且可變的,此缺乏精確性與客觀性,故並非2001/29/EC指令所認定之著作而受著作權保護。 不過讓人關注的是,歐盟法院特別於本判決中提到:在目前科學發展狀況下,尚無法透過一些技術或手段準確並客觀的辨識食品的味道,並就該味道與其他同類產品做區隔,所以在整體綜合考量下,才排除食品味道受著作權的保護。 基此,如果在未來科技能準確並客觀區別各種食品味道的時候,歐盟法院是否會承認食品味道符合2001/29/EC指令對於著作的定義,而讓其受到保護,此或許值得期待。
間隙網路社會之推動-以歐盟資通訊法制政策之發展為例 網路拍賣之法制趨勢 美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。 依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。 依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。 此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。 最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。