科技巨頭Google目前預計依循Apple Card模式,與花旗銀行、Stanford Federal Credit Union合作開發「Google Card」智慧簽帳金融卡。 雖目前尚未正式發行,但根據TechCrunch報導指出,使用者在連結銀行帳戶後,可向Google Card轉入資金或從卡中轉出資金,消費時會直接從個人連結的銀行帳戶扣款。此外,Google Card將連接到具有新功能的Google應用程式,讓使用者得以輕鬆監管消費狀況、確認餘額或鎖定帳戶。 這對於Google來說,為非常重要的一步,因Google本身掌握巨量資料,因此透過Google Card,Google有機會獲得新的收入和消費數據,其將向消費店家酌收交易手續費,再與銀行拆分;此外,Google Card的隱私權政策中,可能利用用戶消費的交易數據,以改善投放商品廣告的衡量標準,若Google可以其金融商品推動銷售,將使更多的品牌願意購買Google廣告。 長期影響來看,Google Card可為Google提供銀行業務,包括股票經紀業務、財務建議或AI會計、保險、借貸諮詢,而因Google掌握大量數據,將可能使Google比傳統金融機構更能準確的管理金融風險,透過應用程式、廣告、搜尋和Android系統,Google和消費者之間建立深厚關聯,為推廣和提供金融服務建立一個充足的背景。隨著武漢肺炎疫情的漸緩,高利潤的金融商品也將幫助 Google 開發有效的收入機會並藉此提升股價。
日本國土交通省等統整了無人飛行載具目視外飛行時的要件為了實現在2018年將無人飛行載具(drone)運用於離島或山區的貨物配送之目標,日本國土交通省及產業經濟省自2017年9月起舉行了6次「關於無人飛行載具的目視外與越過第三人上空之飛行檢討會」,並於2018年3月29日發表了其所統整出無人載具進行無輔助者目視外飛行之相關要件。 依據現行航空法第132條之2、國土交通省頒布的「無人航空機飛行手冊」第3點、以及該發表的內容所示,無人載具的目視外飛行除須就機體、操縱技術與安全對策的面向具備相關要件,尚要求在操縱者之外,應配置輔助者,在飛行時監視飛行與氣象狀況,同時管制飛行路線正下方及其周邊的第三人出入,並綜整判斷上述資訊,適時給予操縱者安全飛行所必要的建議。 基此,該發表指出,考量到以現行的技術而言,地上設備與機上裝置仍難以完全取代輔助者所扮演的角色,故就無輔助者的情形,除在現行飛行基準上,附加:1. 飛行路線須選在第三人存在可能性低、且有人機不會飛行的場所與高度;2. 機體須具備預想中用途的相當飛航實績;3. 事前履勘飛行路線與擬定意外發生時的對策等條件外,又增設新的個別要件如下: (1)就第三人的出入管理,設置能遠距離監視的攝影機,並在管制區域設置看板或海報等,以警示附近居民; (2)對機體施以增加辨識度的塗裝,裝設可供遠距離監視有無有人機接近的攝影機、或將飛行計畫事前提供給有人機營運者; (3)隨時掌握自機狀況,擬定在異常情形發生時降落的適切對策; (4)在飛行路線或機體裝設氣象計以監測氣象狀態,令其得以在判明天候狀況超出機體所能負荷限度的當下即時降落。 預期該發表內容將會成為日本「面向空中產業革命之行程表」中,關於目視外飛行審查要點修訂項目的重要參考基準。
談我國基因改造生物田間試驗管理規範之現況與修正方向 歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。