美國參議院於2015年4月底針對抗衡美國patent troll提出法案,該法案名為the Protecting American Talent and Entrepreneurship (PATENT) Act。希望能制止美國近年來濫用美國專利系統制度,造成許多不必要之專利訴訟案件等情形。
該法案指出,許多濫用之專利訴訟案不僅發生在大公司,許多中小公司也受到patent troll的侵擾,也許即使不著名的專利訴訟案也會花費被告方非常大筆之金額。法案內容指出,提起專利訴訟方需要清楚定義該專利的聲明(claim)及何種產品或是過程侵權,及其侵權之方法等。另外,勝訴方可以提出敗訴方在訴訟過程中所花費的費用並不客觀上合理等聲明。美國政府於2015年5月初表示支持該項提案,且認為該法案是合理且可理解的法案(common-sense legislation),並希望能於今年簽訂通過該法案於國家專利法中,讓美國專利法系統不受到patent troll的氾濫使用。
美國眾議院於2015年5月底又針對PATENT Act法案做出修正,希望在打擊專利蟑螂時,又不至於過度保護AIA,而造成專利權人泛濫使用AIA保護而矯枉過正。主要的法案修正內容包括:
1.限制PTAB過度檢視專利有效性的範圍。PTAB為了防止過多的專利訴訟,對於專利的有效性較謹慎檢視,因而相對的判定許多專利無效。此法案要求PTAB的審查標準需與地方法院檢視專利有效性的標準相同,以避免過度不合理的專利無效決定。
2.專利權人若要聲訴原告的專利無效需具有大量且具體的證明,證明專利的無效性。若專利權人提出無理由的專利訴訟,即造成濫用專利權人權利的情形,該法案規定,其可對其律師相關的懲罰。
3.若專利權人像PTAB提出對方的專利無效,PTAB僅需一個成員來決定是否構成審視該專利有效性的決定。
提出這些修改法案,主要希望在打擊專利訴訟濫用的同時,又不會過度的保護專利權人而可能夠成不中立的結果。
本文為「經濟部產業技術司科技專案成果」
美國加州州長Jerry Brown於2018年09月30日簽署該州的網路中立(Net Neutrality)Senate Bill 822法案,但美國司法部(Department of Justice,DoJ)隨即於同日對加州提起訴訟。DoJ指出Senate Bill 822法案牴觸聯邦政府於2018年對於網際網路採取解除管制之政策,該法案意圖阻撓聯邦政策的施行,有違美國憲法。 美國國會於1996年針對電信法(The Communications Act)制定「聯邦或州對網路低度管制(unfettered by Federal or State regulation)」之政策,美國聯邦通訊委員會(Federal Communications Commission,FCC)為符合該政策,於2002年發布命令,將寬頻網路接取服務列為資訊服務(information service),而美國不將資訊服務提供者以公共事業來看待並進行管理。雖然FCC於2015年就網路中立性訂立規則,要求網路服務提供者(Internet Service Provider)應平等處理所有資料,不得擅自降低流量速度、封鎖網站或服務,以確保任何人獲取資訊時不受不合理的限制。但FCC於2017年12月取消網路中立規定,並確保網際網路會在FCC之低度管制措施下,持續維持其自由與開放性。 DoJ及FCC均認為,網際網路本質上為跨州資訊服務,依據美國憲法第6條第2項規定,憲法、聯邦法律及美國對外條約為全國之最高法律,跨州之商務(interstate commerce)應屬聯邦管轄事項而非州管轄事項。因此,在聯邦政府已廢除網路中立性的情形下,且州政府沒有制定州際貿易規範的權限,則加州政府通過Senate Bill 822法案對網路立法監管,針對網路使用頒布違法且極端的法令,是企圖藉由Senate Bill 822法案破壞聯邦政府的規定,不當限制網路自由,與聯邦政府政策有所牴觸,此為違法及不利於消費者。故DoJ聲明其有責任捍衛聯邦政府的特權(prerogatives)以及維護憲法秩序。為此,DoJ起訴聲明為禁止加州執行Senate Bill 822法案,並請求法院判決Senate Bill 822法案無效。 雖然美國聯邦政府廢除網路中立性,但此政策受民主黨、Facebook、Amazon等著名大型科技公司及消費者的抨擊。因此,就DoJ起訴加州Senate Bill 822法案違法,法院是否認同DoJ所主張的牴觸美國憲法,以及美國對於網路中立性議題的後續發展,值得觀察。
機器人產品監管法制研析機器人產品監管法制研析 資訊工業策進會科技法律研究所 2021年03月25日 台灣為全球ICT產品主要生產國之一,在產業鏈占有一席之地,有關機器人本體製造、國外產品、零組件、系統應用代工或代理商已超過百家,由機器人產品帶動之經濟效益預計將影響製造業整體產值,從而在安全標準、使用規範及責任歸屬上,有必要釐清現行法律規範,並同時審酌如何與國際規範接軌,而有需要進一步規範之處。 機器人依據其使用目的之不同,就現有之機器人產品分類而言,大致可分為「工業型機器人」(Industrial Robots)及「服務型機器人」(Service Robots)兩種。兩者之區分方式通常以國際機器人聯合會(International Federation of Robotics, IFR)之定義為主。「工業型機器人」在各種危險、需大量勞力或精密的工廠,皆可使用產業機器人取代人類,目前主要應用於汽車、面板、晶圓等各種製造業廠房;「服務型機器人」範圍較廣,具有移動性、無限制、多樣性等特性,有別於工業機器人侷限於工廠內使用,服務型機器人種類多樣,應用範圍廣泛,且需具備對環境的感測、辨識能力,以自行決定行動的智慧化功能。而另一面也逐漸受到國際間討論的,是智慧機器人(機器人具有接近強人工智慧的機能[1])相關之倫理、責任歸屬及損害賠償配套措施,而這部分所觀察之法律議題與上述既有之機器人產品之法規發展方向略有不同,因此本研析也將討論相關規範及國際關注焦點[2]。 壹、事件摘要 我國在機器人產品監管法規上仍依循傳統產品標準檢驗之路徑,且相關規範以工業機器人為主,為避免我國廠商因其他國家之產品監管法規之差異而阻礙其貿易流通,機器人產品監管架構實有必要與國際同步,並確保監管程序及標準能與技術發展保持一致。標準與規則的建立是促成機器人領域發展的重要因素,其中歐盟對於機器人標準化之發展在全球扮演關鍵之角色,而歐洲為我國貿易之重要市場,且其產品之CE認證屬於強制性產品檢驗,而於中國、美國採自願性認證(未經認證仍可銷售)有所不同。 故本研究首就商品檢驗、資料保護、勞工安全及產品責任等層面,對我國機器人產品之相關法令進行盤點,並選定歐盟機器人領域相關指令進行研析,對我國相關各界而言,或宜以該等規範或標準為標竿或參考,帶動台灣機器人產業向世界發展。 一、我國法規現況 目前針對機器人產品之法令散見於各法規之中,除了工業用機器人針對職業安全、危害預防有特定規範之外,並無(其他)機器人特別規範,相關規範盤點如下表,並就各類別說明如下: 表 1 :我國機器人相關規範 分類 細類別 規範 內容 商品檢驗、 產品安全 商品檢驗、 電磁相容性 《商品檢驗法》、《商品型式認可管理辦法》 商品安全管理制度。 頻譜 《電信法》、《電波監理業務管理辦法》 無線電頻率指配及設備規範。 國家標準 CNS 14490-1 B8013-1 CNS 14490-2 B8013-2 工業機器人安全性國家標準。 國際標準 工業機器人 ISO 10218-1 ISO 10218-2 ISO 9283 ISO 10218-1--規範工業機器人製造商適用的安全要求。ISO 10218-2--規範工業機器人系統整合適用的安全要求。 ISO 9283--提供工業用機器人操作之性能與測試標準與方法。 個人護理機器人 ISO 13482 個人護理機器人之調和安全標準,其安全性和可靠性的評估依據。 資料保護 個人資料 《個人資料保護法》 規範針對個人資料進行蒐集、處理、利用的單位,都應該取得當事人同意或依法進行。 勞工安全 職業安全 (工業機器人) 《職業安全衛生管理辦法》、「事業單位實施協作機器人安全評估報告參考手冊」 雇主對工業用機器人應於每日作業前依規定實施檢點。 使用協同作業機器人時實施安全評估,並製作安全評估報告,確保勞工作業安全。 危害預防 (工業機器人) 《工業用機器人危害預防標準》、「機器人危害預防手冊」 預防工業用機器人造成之危害。 產品責任 責任歸屬 《民法》、《消費者保護法》 機器人造成相關損害,所應負之契約及侵權責任。 鼓勵促進 投資抵減 《產業創新條例》、《公司或有限合夥事業投資智慧機械或第五代行動通訊系統抵減辦法》 企業投資於自行使用全新智慧機械,或導入5G行動通訊系統相關設備或技術一定額度,得抵減營利事業所得稅。 資料來源:本研究整理 二、歐盟機器人法制規範與發展 歐盟為了避免各成員國間產品監管法規之差異阻礙貿易流通,故歐盟採行後市場監督工作為核心之產品安全規範體系,並透過調和指令來調和產品安全法規,建立歐盟境內一致性之產品安全規範體系,以下整理出歐盟與機器人相關之規範、內容。 表 2 :歐盟機器人相關規範 分類 細類別 規範 內容 商品檢驗、 產品安全 商品檢驗通用規範 《新法律架構規範》(Regulation EC No.765/2008 )、《新法律架構決議》(Decision No. 768/2008/EC) 包括商品檢驗之一般性規定、認證、歐盟市場監督與進入市場之管制、CE 標識、符合歐盟財政安排之活動等相關規範。 機械 《機械指令》(Directive 2006/42/EC[3]) 推動機械產品之自由移動,並保證歐盟勞工及人員享有高度保護。原則上,該項指令僅適用於第一次進入歐盟市場之機械產品。 電磁波 《電磁相容性指令》(Directive 2014/30/EU[4]) 為保證所有電機電子產品可正常運行,不被其他產品釋放出的電磁干擾,亦不會釋放可能干擾其他產品正常運行之電磁。 無線電 《無線電設備指令》(Directive 2014/53/EU) 確保無線電設備符合歐盟安全及衛生要求,包括市場監管機制,特別要求製造商、進口商及配銷商應有之追溯責任。 資料保護 個人資料保護 《一般個人資料保護規則》(GDPR[5]) 內容主要涵蓋資料當事人的權利、資料控制者與處理者的義務、個資跨境傳輸、政府的監理體制、救濟措施等。 勞工安全 職業安全 《工人工作過程中的健康和安全水平指令》(89/391/EEC) 鑑於工作事故和職業病的發生率高,雇主須採取或改進預防措施,以保障工人的安全和健康並確保更高的保護水準;及告知工人安全和健康的風險並降低或消除這些風險所需的措施。 產品責任 責任歸屬 《一般產品安全指令》(Directive 2001/95/EC)[6]、 《產品責任指令》(Council Directive 85/374/EEC[7]) 規定產品一般性要求、製造及銷售業者的責任。 資料來源:本研究整理 貳、重點說明 觀察我國及歐盟現行有關機器人之規範大致可分四類,商品檢驗、資料保護、勞工安全及產品責任。 在商品檢驗之規範方面,主要係為促使商品符合安全、衛生、環保及其他技術法規或標準,為保護消費者權益,國家辦理各類商品之檢驗以維護產品安全;而資料保護則是在以大量資料之分析為基礎的人工智慧發展浪潮下,個人資料保護議題面臨挑戰,國家試圖在創新發展及隱私保護上進行衡平規範;勞工安全方面則是由於機器人可能因使用不當造成勞工工作災害,實需要讓勞工使用符合機械安全標準的工業用機器人,以預防發生產業之切、割、捲、夾、被撞等類型職業災害(近年也有針對服務型機器人之工安標準討論,但尚未有具體規範);最後在產品責任部分,目前多依循既有契約、侵權等民事規範處理,但當機器人自主決定所致損害時,因機器人決策形成過程所涉及之軟硬體、資料、資料連網服務等相當龐雜,難以(快速)釐清與歸責,有待進一步規範並填補損害。依據規範類別,對比我國與歐盟之主要差別如下表: 表 3 :歐盟與我國機器人規範之主要差別 歐盟 我國 商品檢驗 主要以「產品功能」對應其檢驗流程。 設有「自我宣告」之簡易流程,並開放認可之實驗室檢驗。 主要以「品項」對應其檢驗流程,須先進行「品目查詢」。 主管機關介入度較高。 資料保護 規定較具體細緻,跨境傳輸、自動化決策、被遺忘權及資料可攜有具體規定。 未針對人工智慧應用有特殊規定。 未規範自動化決策、被遺忘權及資料可攜。 勞工安全 依循既有工安規範。 工業機器人之工安規範依循國際標準。 工業機器人之工安規範依循國際標準(但未完全一致)。 產品責任 主要採「嚴格責任」,仍有少數免責事由。 針對智慧機器人應用之民事責任有進行相關檢討及修法分析。 採民法、消保法雙軌制,消保法採無過失責任(無法完全免責)。 資料來源:本研究整理 就歐盟針對機器人之監管法規架構,及與機器人相關產品指令之規範內容與主要義務,檢視對應我國之相關法規與規定後發現,事實上我國關於機器人商品檢驗之規範方向與歐盟大致相似,主要差異在於資料保護方面,因歐盟GDPR之規範較新且較為細緻,存有許多我國個資法尚未規範之處,而我國也尚未針對智慧機器人之產品責任規範。我國與歐盟關於機器人規範之整體比較,請參照下表: 表 4 :歐盟與我國機器人規範之比較 分類 歐盟規範內容 我國規範 商品檢驗 產品認證、評鑑程序 法源依據為新法律架構規範、新法律架構決議。 產品認證部分--(accreditation)一般性規定、認證、市場監督與進入市場之管制、CE 標識。 →多數商品可透過「自我宣告」等較簡易之方式進入市場。 《商品檢驗法》第5條:商品檢驗執行之方式,分為逐批檢驗、監視查驗、驗證登錄及符合性聲明四種,依照不同種類而有不同之分類及檢驗方式。à部分產品政府高度介入 《商品型式認可管理辦法》第6條第1項第1款規定:「一、一般型式試驗:電磁相容性型式試驗,應檢具相關技術文件及足夠測試所需之樣品,向標準檢驗局認可之指定試驗室辦理;其他型式試驗,應檢具相關技術文件及足夠測試所需之樣品,向檢驗機關或標準檢驗局認可之指定試驗室辦理。但大型或系統複雜商品,得向標準檢驗局申請指定場所測試。」 評鑑程序的部分—規範各種技術工具之定義、設計標準、符合性評鑑主體之通知、通知過程之條款、符合性評鑑之程序、防衛機制、經濟營運者(economic operators)之責任及商品追蹤性等規定。 機械 法源依據為機械指令,當產品進入市場--應符合一定要件、程序(如:健康和安全規範、黏貼CE標誌等要求) 職業安全衛生法以及商品檢驗法規定,我國未符合安全標準或未通過檢驗之機械產品,不得產製運出廠場或輸入。 產品標準之法源依據為機械指令。 職業安全衛生法第7條。 市場監督之法源依據為機械指令。 職業安全衛生法第7條、第8條、第9條,以及機械設備器具監督管理辦法中,規範產品監督及市場查驗之細節。 電子電氣設備電磁相容性之基本要求 法源依據為電磁相容性指令。 《商品型式認可管理辦法》第6條第1項第1款--電磁相容性型式試驗,應檢具相關技術文件及足夠測試所需之樣品,向標準檢驗局認可之指定試驗室辦理 無線電終端設備之基本要求 法源依據為無線電設備指令 電信法第42條第2項、電信終端設備審驗辦法 資料保護 開發設計 《一般個人資料保護規則》:事前進行「個人資料保護影響評估」 以及可能造成之風險與資料管理者所採取之保護措施、安全措施(強調事前)。 施行細則第12條2項3款規範個人資料風險評估及管理。 蒐集、感測 《一般個人資料保護規則》:個人資料範疇--明文涵蓋網路識別碼、位置資訊。 特定目的:有規定「為達成公共利益之目的、科學或歷史研究目的或統計目的所為之進階處理,不應視為不符合原始目的」之例外。 去識別化之方式:歐盟強調不可逆。 跨境傳輸:原則禁止,例外允許。當未取得認證或適足性,外國廠商無法將歐盟境內所蒐集到的個資,傳輸回位於本國之伺服器。 個人資料範疇:我國較多正面表列項目,無規定者則依靠解釋。(第2條第1款、第6條)位置資訊、網路識別碼等是否屬於個資,我國並未列舉,實務上迭有爭議。 特定目的:皆須有特定目的方可為之。 去識別化之方式:個人資料保護法施行細則第17條,並未強調不可逆。 跨境傳輸:原則允許,例外禁止。(第21條) 處理、資料分類 《一般個人資料保護規則》:資料處理--需符合一定之規範(未區分公務及非公務機關)。 資料處理:需符合一定規範,並特別區分公務及非公務機關。(第15、19條) 分析與驅動傳輸 《一般個人資料保護規則》: 自動化決策--強調「透明處理原則」,針對「個人化自動決策」賦予用戶請求解釋、拒絕適用的權利。 被遺忘權--應考量現行可行之科技技術及費用,選擇適當之措施,包括刪除所有與其個資之連結。 資料可攜權--資料主體應有權接收其提供予控管者之資料,並有權將之傳輸給其他控管者。 自動化決策:無規定。 被遺忘權:規定模糊,容有解釋空間。 資料可攜權:可透過間接解釋之方式達成。 後續衍生的偏見、歧視等問題 《人工智慧倫理準則》目前為企業自主使用,無強制性。 科技部《人工智慧科研發展指引》目前以科研人員為適用對象。(目前請科技部AI研究中心計畫、中心Capstone計畫、研究計畫人員填寫自評表) 產品責任 產品責任之義務範圍 法源依據為《一般產品安全指令》、《產品責任指令》。 生產者--應僅將安全產品投入市場,向消費者提供評估和預防風險的資訊。 經銷商--監督產品進入市場的安全性,相關適當因應措施。 消保法第7條第1項:企業經營者應確保該商品或服務,符合當時科技或專業水準可合理期待之安全性。 消保法第10條:危險產品之回收和要求採取適當因應措施。 產品責任之責任範圍 法源依據為《一般產品安全指令》、《產品責任指令》。 嚴格責任(strict liability)--消費者不需要證明製造商之過失,只需要證明損害是由產品造成即可。(製造商例外仍可自證免責,產品責任指令第7條) 民法第191條之1第1項:推定過失責任,為舉證責任倒置的設計。 消保法第7條第1項:企業經營者能證明其無過失者,法院得減輕其賠償責任。採無過失責任,無免責條款。 產品責任之連帶賠償責任 法源依據為《一般產品安全指令》、《產品責任指令》。 兩個以上的生產者(包含製造、經銷、進口商等),應對同一損害共同承擔責任時。 消保法第7條第3項--企業經營者商品不符當時科技或專業水準之安全性、危害消費者,致生損害於消費者或第三人時。 消保法第8條--從事經銷之企業經營者。 消保法第9條--輸入商品之企業經營者。 資料來源:本研究整理 參、事件評析 我國目前法律規範主要針對「工業型機器人」為主,而未來也應逐漸擴及至「服務型機器人」,並對「智慧機器人」相關議題有所討論,且可能宜進一步區分其風險高低而有不同規範,例如區分一般風險較低的家庭服務、居家照護機器人進行一般之商品安全及責任規範;而對於高度風險之機器人,除應有基本操作與風險排除規範外,更應避免使用錯誤造成危害。同時考慮機器人的運作,必須讓主管機關可以追蹤、回溯所有設計、製造、販售、所有權人與使用人,藉以釐清責任歸屬,並要求符合相對應的安全規範管制要求,以尋求更好的預防與處置管制措施。因此,針對我國機器人相關之規範初步發現及建議如下: 一、商品檢驗規範尚待明確:目前我國對於機器人之相關規範及標準大多集中於商品檢驗與勞工安全兩類,且以工業型機器人為主要規範標的;鑒於服務型機器人之發展,許多標榜為「機器人」之產品快速增加,而其對應之商品檢驗品項與標準不甚明確,造成業者與消費者之疑義。同時,國際間開始針對部分服務型機器人提出相關標準,此部分也應參酌國際趨勢,考量進行滾動式更新或調整,同時可透過公協會或平台使業者知悉規範趨勢。 二、考量業者需求彈性調整資料保護規範:由於智慧機器人奠基於大量資料驅動與人工智慧技術,而我國現有個人資料保護規範尚未有對應於人工智慧技術之彈性規範,且與國際間相關規範(例如:GDPR)有部分無法對應之處。因此,在具體應用上產生遵法成本過高、資料流通受限等問題。故在資料保護之規範上,除考量新興技術之應用外,也應考量國外相關規範之域外效力,儘快取得適足性認定,而有助於我國業者拓展國外市場。 三、逐步研訂或調整與智慧機器人之相關規範:由於目前具有高自主性之智慧機器人在市場尚未普及,相關產品責任仍回歸適用既有各類規範(例如:民法、消費者保護法等)。但國外已開始針對機器人之倫理、責任歸屬等問題,積極展開研究與佈署,並討論是否既有規範可能產生之不足之處,而有修正既有規範與研訂專門法規之討論。而智慧機器人隨著其自主性越高可能產生不可預見之風險,而可能與現行規範有所扞格。因此,未來主管機關應參酌國外相關研究與規範,並逐步建置可以追蹤、回溯所有設計、製造、販售、所有權人與使用人,藉以釐清責任歸屬,並符合相對應的安全規範管制要求,並尋求相應之風險預防與處置管制措施。 [1] 人工智慧可有三層次定義:第一層次是「弱人工智慧」或「狹隘人工智慧」,希望電腦能解決某個需要高度智力才能解決的問題,不要求它跟人類一樣有全面智慧解決各式各樣不同的問題;第二個層次是「強人工智慧」或「泛人工智慧」:要求電腦的智慧需要更全面廣泛,需要有推理、學習、規劃、語言溝通、知覺等能力,擁有這些能力的電腦才有可能展現出跟人類並駕齊驅的智慧;第三個層次是John Searle提出的「強人工智慧假說」(Strong AI Hypothesis),這個層次人工智慧需要擁有跟人類一樣的「心靈」,需要認知自我並如同人類般思考。 [2] 當前機器人已衍生許多產品且應用場景各有不同,就不同種類、不同場景之機器人有不同規範程度之需求。在工業機器人方面,過去因為工安考量,法規強調機器與人類之間分開作業、人機間之安全距離等,但近年來因為人機協力操作之設計與發展備受關注,逐漸產生出人機近距離協力合作之安全標準;而在於服務機器人議題當中,基本上服務機器人被設計為允許與人類共同存在同一空間中,且產品種類多樣化(無人機、搬運機器人、掃地機器人、照護機器人等皆屬之),但也因當前安全標準及相關之規範缺乏,各國對於產品審驗之寬嚴不一,亦成為機器人發展與市場流通之障礙;而在智慧機器人規範方面,倫理、責任歸屬及配套措施則是目前國際討論之焦點。 [3] Directive 2006/42/EC of the European parliament and of the council, EUR-LEX, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:02006L0042-20190726 (last visited Mar. 5, 2021). [4] Directive 2014/30/EU of the European Parliament and of the Council, EUR-LEX, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A32014L0030, (last visited Mar. 15, 2021). [5] Regulation (EU) 2016/679 of the European parliament and of the council, EUR-LEX, https://eur-lex.europa.eu/legal-content/EN/ALL/?uri=celex%3A32016R0679 (last visited Mar. 15, 2021). [6] Directive 2001/95/EC of the European parliament and of the council, EUR-LEX, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:02001L0095-20100101 (last visited Mar. 4, 2021). [7] Council Directive 85/374/EEC, EUR-LEX, https://eur-lex.europa.eu/legal-content/en/TXT/?uri=CELEX:31985L0374 (last visited Mar. 5, 2021).
IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。
生物遺傳資源歸屬之國際規範分析