為強化智慧聯網資通訊技術之整合,推動防救災之智慧化,美國國會眾議員Gus M. Bilirakis於2013年10月10日提出「整合公共示警和警告系統現代化法案」(Integrated Public Alert and Warning System Modernization Act of 2013, H.R. 3283),該法案修正「2002年國土安全法」(Homeland Security Act of 2002)第5章,加入了第526條款,進行國家公共示警和警告系統之現代化工作。 「整合公共示警和警告系統現代化法案」要求聯邦政府應積極進行相關可經驗證和測試研發技術之使用可行性,並強化公共示警和警告之傳遞與傳播,關於預期達成之目標則為: (1) 增強更高安全性、可靠性,並強化聯邦政府的警報和預警能力; (2) 快速預警傳播效率; (3) 改善通知遠程位置之能力; (4) 增強定位地理目標能力,以及 (5) 傳遞多種通信方式提供警報和預警的能力,其也規範聯邦政府應制訂調整政府之共同警報和預警協議、標準、名詞術語定義,以及公共警報和預警系統的操作流程。法案更採用多元化傳遞機制,來傳播國土安全資訊和其他警告資訊給公眾,從而觸及最多數人,聯邦政府更應加強研發及採用各種未來科學技術及整合應用。 其次,法案乃要求應設立「整合公共警報和預警系統諮詢委員會」,除了聯邦政府及地方政府官員代表須參加外,並應納入民間產業參與等意見諮詢,特別是明訂應結合: (1) 通信服務提供商; (2) 系統、設施、設備,並提供通訊服務能力之廠商、開發者和製造商; (3) 第三方服務者 (4) 傳播產業; (5)手機產業; (6) 寬頻產業; (7) 衛星產業等。並且,為了促進地方和整體區域合作,提倡公私夥伴合作關係,強化社區防範和因應,乃特別強調「商用行動通訊服務提供者」(Participating Commercial Mobile Service Provider)之參與和角色定位,依定義,乃指稱「被選定自願性參與負責公共警示情報傳遞之商用行動通訊服務提供者」。 截至2014年4月底,本法案已在眾議院委員會待審,相關立法趨勢與發展當持續關注之。
科技產業申請租稅減免 國稅局:申報浮濫高科技企業申請促產條例相關租稅減免浮濫,尤其是在可享高額抵減的研發項目上,爭議最多。實務上,人才培育的投資抵減減稅空間較少,頂多幾十萬元或幾百萬元,但研發投資抵減最高可達幾十億元,因此常見的爭議也最多。由於研發費用可提列為費用、又可抵稅,對企業來說效益很高,因此很多公司都先申報為研發費用,等被國稅局查到再說;另將製造、銷售費用列為研發費用的情形不勝枚舉。 依照公司研究與發展及人才培訓支出適用投資抵減辦法審查要點第1點附表,研發支出只有包括全職研發人員薪資等九種支出才能抵減,而且業者須附薪資表及證明文件證明,才能減稅。但因為研發誘因優渥,企業總是先報再說,因此行政法院投資抵減的相關訴訟,十之八九都是國稅局勝訴。根據公司研究與發展及人才培訓支出適用投資抵減辦法第5條規定,公司的研發支出,在同一課稅年度內得按百分之三十抵減當年度應納營所稅額;支出總金額超過前二年度研發經費平均數者,超過部份得按百分之五十抵減當年度應納營所稅,當年度營所稅額不足抵減者,得在以後四年度營所稅額抵減。 國稅局提醒,申請研發減免企業必須提供研究計畫等證明,否則舉證不足反將被國稅局要求補稅,恐衝擊公司當年獲利。一般來說,適用投抵減稅金額愈高的公司,也愈常被選案查核,確保公司沒有僥倖逃稅心理。如果投抵項目涉及大陸地區,像是人才培訓支出,則應依臺灣地區與大陸地區人民關係條例第24、25、25條之1條等法令規定,經主管機關核准,否則也將遭國稅局剔除補稅。
國際保險公司探討奈米保險機制可行性特定奈米科技經歷研發階段過後,所獲致的成熟技術產品,要邁向市場商業化階段,能否真正成功,取決於市場消費大眾能否具有信心願意採用。而奈米科技由於新興發展存有未知之不確定風險,所以有論者開始規劃研擬,引進責任保險機制,藉由責任風險分散之功能,期望解決面對不確定風險時,能夠足以妥適因應。 依據國際最具份量之瑞士再保公司(Swiss Re) 對於奈米科技之保險機制,2008年出版「奈米科技:微小物質,未知風險(Nanotechnology--Small Matter, Many Unknowns:The Insurers' Perspective)」研究報告 ,其中明文點出,保險業(Insurance Industry)之核心業務即為移轉風險(Transfer of Risk),由保險公司(Insurer)經過精算程序後收取一定費用,適時移轉相關風險,並產生填補功能。 然而,保險業對於可藉由保險機制所分散之風險,亦有其極限範圍,如果超過以下三原則者,則會被認為超出可承擔風險範圍,屬保險業無力去承擔者,所以保險機制之引進將不具可行性: (1)風險發生之可能機率與發生嚴重程度,現行實務沒有可行方式能加以評估者。 (2)當危害產生時,所造成之影響為同時擴及太多公司、太多產業領域、或太廣的地理區域者。 (3)有可能產生的巨大危害事件,已超過私領域保險業所能承受之範圍者。 此外,為確保未來得以永續經營,保險公司對於願意承保之可保險性(Insurability)端視對於以下各因素性質之評估: (1)可加以評估性(Accessibility):對於所產生之損害係屬可評估,並得以加以計量化、允許訂出價格者(be Quantifiable to Allow Pricing)。 (2)無可事先安排者(Randomness):對於保險事故之發生,必須是不可預測者,並且其所發生必須獨立於被保險者本身主觀意志(the Will of the Insured)之外。 (3)風險相互團體性(Mutuality):相關保險者必須基於同時參加並組成共同團體性,藉以達到分擔分散相關風險性。 (4)經濟上可行性(Economic Feasibility):必須使私人保險公司藉由收取適宜保費,便得以支付對等之賠償費用,可以確保業務經營得以永續持續下去。 綜上所述,可以明瞭並非所有風險,保險公司均願意承保而能達到分散風險者,對於風險必須是可預測性並有承保價值,保險公司本身具有商業機制,依據精算原則確定願意承保之費用,此才可謂實務上可行,對於奈米科技引進保險機制之衡量思考,也當是如此。
德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現