有鑑於線上市集(如Google Play)、訂房網站等線上平台提供了迅速進入國際消費市場之機會, 因此成為了數百萬企業提供服務的首選之地。然而,存在於「平台對商家」(platform–to-business, P2B)之間的某些結構性問題,卻導致了企業之間的不公平交易行為。是以,歐洲議會、歐盟理事會與歐盟執委會於2019年2月14日就「提升線上中介服務商業用戶的公平性與透明性規則」(Regulation on promoting fairness and transparency for business users of online intermediation services),達成政治協議,歐洲議會並已於2019年4月17日批准。
該規則為全世界第一個針對線上平台與商業用戶訂定之規則,係數位單一市場策略(Digital Single Market Strategy)的一部分,預計適用於整個線上平台經濟,亦即,目前在歐盟境內營運的7000個線上平台或市集都包含在內,無論是科技巨擘,抑或是規模雖小但對商業用戶具重要議價能力的新創公司(small start-ups)皆屬之。此外,新規則中涉及搜尋結果排序透明度之部分,亦將適用於搜尋引擎。
其中,由於數以百萬計的中小企業是構成歐盟經濟的重要支柱,是以此番訂定的新規則,係專門針對此些較無議價能力的中小企業而設計。中小企業可自新規則中獲益之項目主要有四:
1. 禁止特定不公平行為
(1) 不得突然且未附理由的暫停帳號使用權
線上平台不得在無明確理由或未提供申訴可能性之情況下,暫停或終止賣家帳戶。
(2) 條款與條件需簡明易懂且變更時須提前通知
條款與條件需易於取得且以簡明易懂之文字書寫,當條款與條件有所變更時,線上平台需在15天之前通知,使賣家得即時調整業務,並可視業務調整複雜度適時延長通知期間。
2. 提升線上平台透明度
(1) 排序透明化
市集與搜尋引擎需揭露其排序商品或服務的主要參數,以利賣家進行適度優化。
(2) 強制揭露線上平台的部分商業行為
由於部分線上平台除了提供市集促進交易進行,更在該市集中身兼賣家之角色,是以,為維護公平競爭的環境,新規則強制此些線上平台全面揭露任何可能給予自家產品的優勢。此外,該等線上平台還需揭露所蒐集之資料及使用方式,尤其是與其他商業夥伴共享之資料。當涉及個人資料時,則有一般資料保護規則(General Data Protection Regulation, GDPR)之適用。
3. 增設爭端解決機制
(1) 建立投訴處理系統
線上平台應建立內部投訴處理系統以對商業用戶提供適當協助。
(2) 設置調解程序
線上平台應提供調解之協助,以助賣家在法庭外解決爭議,有效節省時間與金錢。
4. 規則之實施
商業公會能對違反規則之線上平台提起告訴,以降低賣家對平台報復行為的恐懼,並降低個別賣家的訴訟成本。
在歐洲議會批准後,一旦歐盟理事會同意,新規則將在公布後12個月後正式施行,且為了確保新規則與時俱進,歐盟將在適用後的18個月內進行檢視,並設立專門的線上平台觀測站(Online Platform Observatory),以監控市場的變化,並確保新規則有效施行。
所謂自動駕駛(autopilot),原來是指一個用來控制載具軌道而無需人工一直干預的系統,亦即無須人類持續干預,但人類仍須於關鍵時刻介入進行決定或作為,此時機器僅作為輔助。 而自動駕駛汽車或稱全自動駕駛,則只完全無須人類干預,由機器自動感應偵測,自動做成決策控制車輛行駛。故由人類的介入程度區別究竟是駕駛輔助或自動駕駛。美國國家公路交通安全管理局(NHTSA)於2016年已提出正式的分類系統,除手動駕駛(0級)外,區分弱駕駛輔助(1級)、部分自動駕駛(2級)、有條件全自動(3級)、高度/完全自動化(4級)不同程度的自動駕駛。其他國家如德國,在聯邦政府的「自動駕駛圓桌會議」也對自動駕駛有類似的四等級區分。 德國聯邦政府也在於2017年1月25日提出規範自動駕駛之法律草案,亦即道路交通法修正法(Änderung des Straßenverkehrsgesetzes),核心在於賦予電腦與人類駕駛者法律上同等地位。亦即,駕駛人的定義未來擴張延伸到「使用不同程度自動駕駛系統者」。根據草案將來在車輛行駛中,人類可以在特定時間與特定狀況下接管整個行駛。而最重要的修正:人類始終應該負使用電腦的最終責任。 故在行駛中駕駛人將會被輔助機器替代,更要求自駕系統應該具備“隨時可以由駕駛人接手操控或停俥”的功能。 分類中,駕駛人的角色只有到全自動駕駛實現時才退場,屆時才會發生無駕駛人只有乘客的狀況。 修法也重視自駕技術失敗並導致事故所生責任分擔的問題。對於責任的調查將採用如同飛航安全中之「黑盒子」的方式,該裝置會記錄行駛中的所有基本資料。這將有助於發生事故後澄清,查明究竟是技術上原因、製造商或駕駛員的過失,以確保駕駛人無法將責任全部推給自動化系統的故障。
IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。