國際保險公司探討奈米保險機制可行性

  特定奈米科技經歷研發階段過後,所獲致的成熟技術產品,要邁向市場商業化階段,能否真正成功,取決於市場消費大眾能否具有信心願意採用。而奈米科技由於新興發展存有未知之不確定風險,所以有論者開始規劃研擬,引進責任保險機制,藉由責任風險分散之功能,期望解決面對不確定風險時,能夠足以妥適因應。

 

  依據國際最具份量之瑞士再保公司(Swiss Re) 對於奈米科技之保險機制,2008年出版「奈米科技:微小物質,未知風險(Nanotechnology--Small Matter, Many Unknowns:The Insurers' Perspective)」研究報告 ,其中明文點出,保險業(Insurance Industry)之核心業務即為移轉風險(Transfer of Risk),由保險公司(Insurer)經過精算程序後收取一定費用,適時移轉相關風險,並產生填補功能。

 

  然而,保險業對於可藉由保險機制所分散之風險,亦有其極限範圍,如果超過以下三原則者,則會被認為超出可承擔風險範圍,屬保險業無力去承擔者,所以保險機制之引進將不具可行性:
(1)風險發生之可能機率與發生嚴重程度,現行實務沒有可行方式能加以評估者。
(2)當危害產生時,所造成之影響為同時擴及太多公司、太多產業領域、或太廣的地理區域者。
(3)有可能產生的巨大危害事件,已超過私領域保險業所能承受之範圍者。

 

  此外,為確保未來得以永續經營,保險公司對於願意承保之可保險性(Insurability)端視對於以下各因素性質之評估:
(1)可加以評估性(Accessibility):對於所產生之損害係屬可評估,並得以加以計量化、允許訂出價格者(be Quantifiable to Allow Pricing)。
(2)無可事先安排者(Randomness):對於保險事故之發生,必須是不可預測者,並且其所發生必須獨立於被保險者本身主觀意志(the Will of the Insured)之外。
(3)風險相互團體性(Mutuality):相關保險者必須基於同時參加並組成共同團體性,藉以達到分擔分散相關風險性。
(4)經濟上可行性(Economic Feasibility):必須使私人保險公司藉由收取適宜保費,便得以支付對等之賠償費用,可以確保業務經營得以永續持續下去。

 

  綜上所述,可以明瞭並非所有風險,保險公司均願意承保而能達到分散風險者,對於風險必須是可預測性並有承保價值,保險公司本身具有商業機制,依據精算原則確定願意承保之費用,此才可謂實務上可行,對於奈米科技引進保險機制之衡量思考,也當是如此。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 國際保險公司探討奈米保險機制可行性, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2817&no=67&tp=1 (最後瀏覽日:2025/12/02)
引註此篇文章
你可能還會想看
英國不贊同歐盟新視聽媒體服務指令

  英國傳播、電信、科技及媒體相關領域業者及團體於 2006 年 4 月聯合發表一份意見書,反對歐盟提出的新視聽媒體服務指令( Audiovisual Media Services Directive )草案。同時英國政府也正關注這項草案並與其他會員國進行討論。   自 2005 年 9 月起,歐盟開始針對電視無國界指令( Television without Frontiers Directive )的修正進行討論。歐盟考慮將該指令修改為視聽媒體服務指令,擴大其規範範圍,使其包括各種與電視相似( TV-like )的服務,並將所有視聽媒體服務區分成線性( linear )及非線性( no-linear )服務,分別給予不同程度的管制。   不過英國有許多業者及團體對於這項新指令的制訂深表不贊同,其認為: (1) 就非線性服務(例如隨選視訊)而言,目前既有法規以及業者自律規範已足以保障消費者; (2) 線性及非線性的分類方式可能不適宜作為法律定義的基礎; (3) 新指令將可能阻礙新進業者參與市場的意願,甚至導致投資者轉向其他國家發展。所以希望透過連署,要求歐盟重新檢視這項新指令。

澳洲政府考量開放民事訴訟領域查閱網路服務商所保存之通訊資料

  澳洲政府於2014年推動電信(監察及查閱)法修正(資料保存)案(Telecommunications (Interception and Access)Amendment (Data Retention) Bill 2014),增訂資料保存規範,其目的在於打擊重大犯罪、恐怖主義、國際組織犯罪等,其措施為要求國內網路服務商須保留用戶之通訊資料,並保存期間至少2年,對此,當時情報及保安事務議會聯合委員會(下稱委員會)於評估該修正案時,卻發現一項爭議問題,即民事訴訟當事人亦得查閱通訊資料,但資料保存行為之正當性乃立基於維護國家安全,實與民事訴訟制度意義相悖,故委員會提出應排除民事訴訟領域得以查閱通訊資料之建議。   澳洲政府對於委員會所提出之建議採取全盤接受之態度,進而重新修訂2014年電信(監察及查閱)法修正(資料保存)案,且併同修正刪除1997年電信法令第280條,有關得以民事訴訟傳票或命令,向網路服務商查閱其所保存之通訊資料;至於網路服務商之通訊資料保存義務方面,仍須依1979年電信(監察及查閱)法為之。前述修正於2017年4月13日生效。   然而,澳洲政府方面時至今日卻有態度轉變之趨勢,起因於通訊部長與檢察總長於2016年12月20日公告,其認為資料保存措施對於特定類型之民事訴訟並非沒有實益,如:維護智慧財產權事件、家庭事件(如:離婚)或勞工權益事件(如:公司起訴勞工)等,故應視類型或個案情形予以開放查閱;因此,主管機關提出三項問題向社會大眾徵求意見:1、民事訴訟當事人在何種情形下可查閱通訊資料;2、倘若民事訴訟當事人不得查閱通訊資料者,對於民事訴訟會產生何種影響;3、是否有特定之民事訴訟類型,是排除1997年電信法第280條(1B)不適用。   實際觀察澳洲政府所推動之該項公告,在其國內爭議相當大,不僅該項公告已臨近前述修正生效日,且開放民事訴訟當事人得以查閱通訊資料之正當性疑慮仍未解除,甚且,亦與近期國際上國家安全與人民隱私權保障間之衝突日趨顯著,如:英國之調查權力法案(Investigatory Powers Act. 2016)不無關聯,因此,澳洲政府是否願意在社會輿論反對聲浪中,仍維持該項公告修正意向,值得後續觀察。

美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見

  美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。   依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。   依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。   此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。   最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。

韓國發布人工智慧基本法

韓國政府為支持人工智慧發展與建立人工智慧信任基礎,提升國家競爭力,韓國科學技術情報通訊部(과학기술정보통신부)於2025年1月21日公布《人工智慧發展與建立信任基本法》(인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안,下稱AI基本法),將於2026年1月22日起生效。韓國《AI基本法》為繼歐盟《人工智慧法》(EU Artificial Intelligence Act)之後第二部關注人工智慧的國家級立法,並針對高影響人工智慧(고영향 인공지능)及生成式人工智慧進行規範,促進創新及降低人工智慧風險,將搭配進一步的立法與政策以支持人工智慧產業。 《AI基本法》有以下三個政策方向: 1. 人工智慧基本計畫:由科學技術情報通訊部制定並每三年檢討「人工智慧基本計畫」,經「國家人工智慧委員會」審議後實施,決定產業發展政策、培育人才、健全社會制度等事項。本法並設置人工智慧政策中心及人工智慧安全研究所,提供科學技術情報通訊部所需的研究與分析。 2. 扶持產業發展:以扶持中小企業及新創企業為發展方向,促進產業標準化的基本政策,爭取國際合作及海外發展。 3. 人工智慧倫理與安全性:政府公布人工智慧倫理原則,由相關機構及業者自主成立人工智慧倫理委員會,在政府發布的指引下建立貼近實務面的倫理指引。本法明確要求人工智慧產業必須負擔透明性及安全性義務,政府也推動認驗證制度,以確保人工智慧的可靠性。 韓國《AI基本法》將人工智慧發展方向及社會政策結合,明確要求政府制定人工智慧發展計畫並定期檢討,施行具體措施與設置必要組織,確立政府在人工智慧領域的角色,然產業界對於政府監管力度之意見有所分歧,為《AI基本法》後續相關政策及指引推動種下不確定性,值得持續追蹤相關動態作為我國人工智慧發展策略之參考。

TOP