中國大陸國家工商行政管理總局為加強網路交易消費者保護,在2014年03月15日起實施「網絡交易管理辦法」,就企業經營者責任新設多項規定。特別是針對第三方交易平台業者,辦法要求其建立交易規則、消費資訊保存、不良訊息處理、消費糾紛調解管道等管理制度,以確保平台服務品質。同时要求平台業者建立審查制度,對申請進入平台從事經營活動之賣家,進行身分審查與建檔,透過以網管網,達成有效率的網路身分管理。
另外,為確保網路交易市場秩序、公平競爭,本辦法亦例示多項不公平競爭行為態樣,包括任意調整信用評價、傷害他人商譽等影響交易秩序之欺罔行為,皆受到明文禁止。甚至在商標侵權情況中,平台在接收到侵權通知時,必須積極採取必要措施,否則就因此損害擴大部分,將與侵權行為人共同承擔連帶責任。
考量在兩岸近期簽署之「海峽兩岸服務貿易協議」中,陸方已承諾對台開放「在線數據處理與交易處理業務」之電子商務網站經營,待將來協議完成相關程序生效後,台灣電子商務業者在進入大陸市場經營交易平台時,勢必受到本辦法規範,實應留意相關要求以避免觸法。
經濟部、金管會刻正規畫將企業員工分紅改列費用,並預計自九十六年度實施,以與國際會計處理原則接軌,預料將對高科技業將造成相當之衝擊。 國際會計準則都是將分紅列為費用計算,唯獨台灣是用盈餘在分配員工分紅,為與國際會計準則接軌,將分紅列入費用應是未來趨勢,可讓財報更加透明化,新今年 4 月 28 日 立法院修正通過的商業會計法第 64 條規定,公司企業應將員工分配盈餘在財報上改列為費用,以公平市價作為計算基準,並將另採行政命令或解釋令公布入帳方式。 不過員工分紅若以市價列入費用,公司帳上賺的錢就會減少,尤其是高價股、高配股的公司影響尤甚;另一方面,新規定亦可能使這些公司趕採股票選擇權,以或提高底薪、現金分紅等方式來降低衝擊,否則若是獲利都被「員工配股」稀釋光了,財報會非常難看。因此,高科技業者則希望主管機關能放寬買回庫藏股分配員工及員工認股權證規定,以降低衝擊。
WhatsApp與英國ICO達成協議將停止與Facebook間之資料共享英國資訊專員辦公室(Information Commissioner's Office,簡稱ICO)在歐盟資料保護主管機關(European Data Protection Authorities) 針對WhatsApp與其母公司Facebook間進行資料共享之行為提出相關顧慮之後,於2016年8月就上開事件是否涉及違反英國資料保護法(Data Protection Act)啟動調查,調查結果終於在2018年3月14日出爐並且雙方達成協議。 ICO調查結果是WhatsApp並無正當且合法之理由與Facebook進行資料共享,惟並未對WhatsApp進行任何懲罰,原因乃是WhatsApp並未分享英國用戶之資料予Facebook,並未直接違反英國資料保護法,因為WhatsApp被定位在資料處理者(data processor),只要運作是合法的且不侵擾人們之人權,即可容許。不過WhatsApp仍向ICO承諾將停止分享其用戶個人資訊予Facebook,此協議將持續到GDPR生效為止,亦即此後WhatsApp與Facebook間之資料共享若符合GDPR之規範,則可在基於安全防護之目的下進行或是改善其產品與廣告行銷。 ICO調查專員Elizabeth Denham指出WhatsApp不應與Facebook間進行資料共享之理由有三:一、WhatsApp並未確認其與Facebook間所進行之個人資料分享係基於何種法律依據;二、WhatsApp並未向其用戶適當且公平地揭露其如何處理、分享用戶之資料;三、對於WhatsApp既有之用戶而言,WhatsApp與Facebook間資料共享之處理目的與當初WhatsApp獲取其用戶資料之目的,二者並不相符。 惟歐盟其他國家對於WhatsApp之處置可能不若英國寬容。例如,法國國家資訊自由委員會(Commission nationale de l'informatique et des libertes,簡稱CNIL)正對其採取執法行動,而漢堡資料保護與資訊自由委員會(Hamburg Commissioner of Data Protection and Freedom of Information)將案件提交到高等行政法院,該法院並已禁止Facebook使用從WhatsApp共享中所獲得之資料。
英國與新加坡監管沙盒機制概述 人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。