新冠病毒業務中斷貸款計畫(CORONAVIRUS BUSINESS INTERRUPTION LOAN SCHEME,CBILS)係因應疫情於3月23日由隸屬於英國政府之英國商業銀行(British Business Bank為推動中小型企業發展之政策性銀行)所提供八成信用擔保的中小型企業紓困貸款計畫,但承辦銀行授信緩慢或不願承貸,導致成效不彰飽受批評。
英國商業銀行正視小型企業具規模小、缺少抵押物、信用不足、營業資訊不透明及缺乏與銀行間的往來紀錄之特徵,易有不易通過授信徵審,難以獲得融資紓困之問題。業於5月4日另行啟動復興貸款計畫(BOUNCE BACK LOAN SCHEME,BBLS),小型企業只需於受理該計畫之承貸銀行網站填寫1份簡易申請表,輸入公司名稱、地址、公司註冊編號、2019年之預估年營業額與銀行代碼跟帳號,即可申請承貸金額為2,000英鎊以上,最高至企業營業額之25%(上限為50,000英鎊)之六年期之小規模貸款,該貸款提供十成擔保,銀行無需進行授信評估,亦不得要求小型企業進行任何其他形式之個人擔保,BBLS開放至今僅一週,申請件數已高於CBILS。
我國中央銀行之小規模營業人簡易申貸方案以十成信用提供小額貸款,與BBLS相似,惟我國小規模營業人簡易申貸方案採取簡易評分表進行審核,評分表內仍就負責人個人信用及不動產擔保設定進行分數評比,與英國無須進行授信評估頗有差異,雖我國受疫情影響程度未如英國嚴重,但小規模營業人仍受有衝擊,兩國之小額貸款同為十成擔保,我國或可參酌英國授信放寬之作業,提供小規模營業人更寬一點、快一點、方便一點的活水挹注,使小規模營業人度過疫情難關及加速復甦。
自2013年起,新加坡綜合考量其天然資源匱乏之劣勢與位處東南亞經貿核心之優勢,提出「智慧財產中心藍圖」(IP Hub Master Plan),目標在10年內讓新加坡成為亞洲的全球智慧財產營運中心(IP Hub),藉以打造新加坡作為亞洲金融與法律中心之重要地位;「智慧財產中心藍圖」的具體規劃包含在「交易與管理」、「高值智財申請」與「爭議解決」等三大面向,成為匯聚亞洲且面向全球的智財營運中心。 在考量全球經濟成長力趨緩,世界各國紛紛加大投資創新與數位轉型的趨勢下,新加坡智財局(IPOS)於2017年再次更新這份藍圖:盤點自本藍圖提出迄今的各項執行成果,並探討如何與世界趨勢接軌。在更新版藍圖中強調未來智慧財產在具創新力公司資產內的比重將遠高於實體財產,對智財體制的依賴將與日俱增,新加坡應及早因應以提供新創產業包含智財保護、管理與最大化智財價值等協助,以打造未來產業競爭力。 更新版藍圖引用OECD「創新就是將創意帶往市場」之定義,智財產業將成為創新型經濟(innovation-driven economy)中的關鍵。根據IPOS估計,智財交易與管理活動將為新加坡在未來5年創造至少15億新幣的產值,而未來的挑戰在於提高「智財創造」的便利、「智財保護」的普及,以及「智財商業化」的推進等三大面向;因此IPOS將加強智財檢索與政府機關間合作、協助中小企業導入智財管理制度提升企業效益,並打造無形資產評價、交易與融資平台,以達成更新版藍圖所提出之挑戰目標。
德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。 諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。 綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。
歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。
數位模擬分身(Digital Twin)數位模擬分身(Digital Twin)係指將實體設備或系統資訊轉為數位資訊,使資訊科學或IT專家可藉此在建立或配置實際設備前進行模擬,從而深入了解目標效能或潛在問題。 於實際運用上,數位模擬分身除可用於實體設備製造前,先行針對產品進行測試,以減少產品缺陷並縮短產品上市時間外,亦可用於產品維護,例如在以某種方式修復物品前,先利用數位模擬分身測試修復效果。此外,數位模擬分身還可用於自駕車及協助落實《一般資料保護規範》(General Data Protection Regulation, 以下簡稱GDPR)規定。在自駕車方面,數位模擬分身可通過雲端運算(cloud computing)和邊緣運算(edge computing)連接,由數位模擬分身分析於雲端運算中涉及自駕系統操作之資訊,包括全部駕駛週期內之資料,如車輛模型在內之製造資料(manufacturing data)、駕駛習慣及偏好等個人隱私資料、感測器所蒐集之環境資料等,協助自駕系統做出決策;在GDPR方面,數位模擬分身可利用以下5大步驟,建立GDPR法規遵循機制以強化隱私保護:1.識別利害關係人與資產,包括外部服務和知識庫;2.漏洞檢測;3.透過虛擬數值替代隱私資料進行個資去識別化;4.解釋結果資料;5.利用資料匿名化以最大限度降低隱私風險,並防止受試者之隱私洩露。