萬字好文,電商秒殺系統(tǒng)架構(gòu)分析與實戰(zhàn)
你知道的越多,不知道的就越多,業(yè)余的像一棵小草!
你來,我們一起精進!你不來,我和你的競爭對手一起精進!
編輯:業(yè)余草
my.oschina.net/xianggao/blog/524943
推薦:https://www.xttblog.com/?p=5178
正常電子商務(wù)流程
(1)查詢商品;
(2)創(chuàng)建訂單;
(3)扣減庫存;
(4)更新訂單;
(5)付款;
(6)賣家發(fā)貨;
秒殺業(yè)務(wù)的特性
(1)低廉價格;
(2)大幅推廣;
(3)瞬時售空;
(4)一般是定時上架;
(5)時間短、瞬時并發(fā)量高;
2 秒殺技術(shù)挑戰(zhàn)
對現(xiàn)有網(wǎng)站業(yè)務(wù)造成沖擊
解決方案 :將秒殺系統(tǒng)獨立部署,甚至 使用獨立域名,使其與網(wǎng)站完全隔離 。
高并發(fā)下的應(yīng)用、數(shù)據(jù)庫負(fù)載
解決方案 :重新設(shè)計秒殺商品頁面,不使用網(wǎng)站原來的商品詳細(xì)頁面, 頁面內(nèi)容靜態(tài)化,用戶請求不需要經(jīng)過應(yīng)用服務(wù) 。
突然增加的網(wǎng)絡(luò)及服務(wù)器帶寬
解決方案 :因為秒殺新增的網(wǎng)絡(luò)帶寬,必須和運營商重新購買或者租借。為了減輕網(wǎng)站服務(wù)器的壓力,
需要將秒殺商品頁面緩存在CDN,同樣需要和CDN服務(wù)商臨時租借新增的出口帶寬 。
直接下單
解決方案 :為了避免用戶直接訪問下單頁面URL,需要將改URL動態(tài)化,即使秒殺系統(tǒng)的開發(fā)者也無法在秒殺開始前訪問下單頁面的URL。辦法是在
下單頁面URL加入由服務(wù)器端生成的隨機數(shù)作為參數(shù),在秒殺開始的時候才能得到 。
如何控制秒殺商品頁面購買按鈕的點亮
解決方案 :使用JavaScript腳本控制,
在秒殺商品靜態(tài)頁面中加入一個JavaScript文件引用,該JavaScript文件中包含秒殺開始標(biāo)志為否
;當(dāng)秒殺開始的時候生成一個新的JavaScript文件( 文件名保持不變,只是內(nèi)容不一樣 ),更新秒殺開始標(biāo)志為是,
加入下單頁面的URL及隨機數(shù)參數(shù)(這個隨機數(shù)只會產(chǎn)生一個,即所有人看到的URL都是同一個,服務(wù)器端可以用redis這種分布式緩存服務(wù)器來保存隨機數(shù))
,并被用戶瀏覽器加載,控制秒殺商品頁面的展示。
這個JavaScript文件的加載可以加上隨機版本號(例如xx.js?v=32353823),這樣就不會被瀏覽器、CDN和反向代理服務(wù)器緩存 。這個JavaScript文件非常小,即使每次瀏覽器刷新都訪問JavaScript文件服務(wù)器也不會對服務(wù)器集群和網(wǎng)絡(luò)帶寬造成太大壓力。
如何只允許第一個提交的訂單被發(fā)送到訂單子系統(tǒng)
JavaScript文件,更新秒殺開始標(biāo)志為否,購買按鈕變灰。事實上,由于最終能夠成功提交訂單的用戶只有一個,為了減輕下單頁面服務(wù)器的負(fù)載壓力,可以
控制進入下單頁面的入口,只有少數(shù)用戶能進入下單頁面,其他用戶直接進入秒殺結(jié)束頁面 。
解決方案
:假設(shè)下單服務(wù)器集群有10臺服務(wù)器,每臺服務(wù)器只接受最多10個下單請求。在還沒有人提交訂單成功之前,如果一臺服務(wù)器已經(jīng)有十單了,而有的一單都沒處理,可能出現(xiàn)的用戶體驗不佳的場景是用戶第一次點擊購買按鈕進入已結(jié)束頁面,再刷新一下頁面,有可能被一單都沒有處理的服務(wù)器處理,進入了填寫訂單的頁面,
可以考慮通過cookie的方式來應(yīng)對,符合一致性原則 。當(dāng)然可以 采用最少連接的負(fù)載均衡算法 ,出現(xiàn)上述情況的概率大大降低。
如何進行下單前置檢查
下單服務(wù)器檢查本機已處理的下單請求數(shù)目:
如果超過10條,直接返回已結(jié)束頁面給用戶; 如果未超過10條,則用戶可進入填寫訂單及確認(rèn)頁面;
檢查全局已提交訂單數(shù)目:
已超過秒殺商品總數(shù),返回已結(jié)束頁面給用戶; 未超過秒殺商品總數(shù),提交到子訂單系統(tǒng);
秒殺一般是定時上架
有人可以繞過前端的限制,直接通過URL的方式發(fā)起購買
,這就需要在前臺商品頁面,以及bug頁面到后端的數(shù)據(jù)庫,都要進行時鐘同步。越在后端控制,安全性越高。
減庫存的操作
庫存會帶來“超賣”的問題:售出數(shù)量多于庫存數(shù)量
update auction_auctions set
quantity = #inQuantity#
where auction_id = #itemId# and quantity = #dbQuantity#
update auction_auctions set
quantity = quantity-#count#
where auction_id = #itemId# and quantity >= #count#
秒殺器的應(yīng)對
秒殺專用驗證碼,電視公布驗證碼,秒殺答題 。
3 秒殺架構(gòu)原則
盡量將請求攔截在系統(tǒng)上游
讀多寫少的常用多使用緩存
的應(yīng)用場景【一趟火車其實只有2000張票,200w個人來買,最多2000個人下單成功,其他人都是查詢庫存,寫比例只有0.1%,讀比例占99.9%】,
非常適合使用緩存 。
4 秒殺架構(gòu)設(shè)計
,而不是商品詳情等用戶體驗細(xì)節(jié),因此秒殺系統(tǒng)的頁面設(shè)計應(yīng)盡可能簡單。
第一個階段是秒殺開始前某個時間到秒殺開始, 這個階段可以稱之為 準(zhǔn)備階段,用戶在準(zhǔn)備階段等待秒殺 ; 第二個階段就是秒殺開始到所有參與秒殺的用戶獲得秒殺結(jié)果, 這個就稱為 秒殺階段 吧。
4.1 前端層設(shè)計
。這里需要考慮兩個問題:
第一個是秒殺頁面的展示
js,圖片等資源,如果同時有幾千萬人參與一個商品的搶購,一般機房帶寬也就只有1G
10G,網(wǎng)絡(luò)帶寬就極有可能成為瓶頸,所以這個頁面上各類靜態(tài)資源首先應(yīng)分開存放,然后放到cdn節(jié)點上分散壓力,由于CDN節(jié)點遍布全國各地,能緩沖掉絕大部分的壓力,而且還比機房帶寬便宜
第二個是倒計時
客戶端與服務(wù)器時鐘不一致可以采用客戶端定時和服務(wù)器同步時間
,這里考慮一下性能問題,用于同步時間的接口由于不涉及到后端邏輯,只需要將當(dāng)前web服務(wù)器的時間發(fā)送給客戶端就可以了,因此速度很快,就我以前測試的結(jié)果來看,一臺標(biāo)準(zhǔn)的web服務(wù)器2W+QPS不會有問題,如果100W人同時刷,100W
QPS也只需要50臺web,一臺硬件LB就可以了~,并且web服務(wù)器群是可以很容易的橫向擴展的(LB+DNS輪詢),這個接口可以只返回一小段json格式的數(shù)據(jù),而且可以優(yōu)化一下減少不必要cookie和其他http頭的信息,所以數(shù)據(jù)量不會很大,
一般來說網(wǎng)絡(luò)不會成為瓶頸,即使成為瓶頸也可以考慮多機房專線連通,加智能DNS的解決方案 ;web服務(wù)器之間時間不同步可以采用統(tǒng)一時間服務(wù)器的方式,
比如每隔1分鐘所有參與秒殺活動的web服務(wù)器就與時間服務(wù)器做一次時間同步 。
瀏覽器層請求攔截
(1) 產(chǎn)品層面 ,用戶點擊“查詢”或者“購票”后,按鈕置灰,禁止用戶重復(fù)提交請求; (2) JS層面 ,限制用戶在x秒之內(nèi)只能提交一次請求;
4.2 站點層設(shè)計
(1) 同一個uid,限制訪問頻度 ,做頁面緩存,x秒內(nèi)到達(dá)站點層的請求,均返回同一頁面 (2) 同一個item的查詢,例如手機車次 ,做頁面緩存,x秒內(nèi)到達(dá)站點層的請求,均返回同一頁面
4.3 服務(wù)層設(shè)計
(1)大哥,我是服務(wù)層,我清楚的知道小米只有1萬部手機,我清楚的知道一列火車只有2000張車票,我透10w個請求去數(shù)據(jù)庫有什么意義呢?
對于寫請求,做請求隊列,每次只透過有限的寫請求去數(shù)據(jù)層,如果均成功再放下一批,如果庫存不夠則隊列里的寫請求全部返回“已售完” ;(2) 對于讀請求,還用說么?cache來抗 ,不管是memcached還是redis,單機抗個每秒10w應(yīng)該都是沒什么問題的;
用戶請求分發(fā)模塊 :使用Nginx或Apache將用戶的請求分發(fā)到不同的機器上。 用戶請求預(yù)處理模塊 :判斷商品是不是還有剩余來決定是不是要處理該請求。 用戶請求處理模塊 :把通過預(yù)處理的請求封裝成事務(wù)提交給數(shù)據(jù)庫,并返回是否成功。 數(shù)據(jù)庫接口模塊 :該模塊是數(shù)據(jù)庫的唯一接口,負(fù)責(zé)與數(shù)據(jù)庫交互,提供RPC接口供查詢是否秒殺結(jié)束、剩余數(shù)量等信息。
用戶請求預(yù)處理模塊
package seckill;
import org.apache.http.HttpRequest;
/**
* 預(yù)處理階段,把不必要的請求直接駁回,必要的請求添加到隊列中進入下一階段.
*/
public class PreProcessor {
// 商品是否還有剩余
private static boolean reminds = true;
private static void forbidden() {
// Do something.
}
public static boolean checkReminds() {
if (reminds) {
// 遠(yuǎn)程檢測是否還有剩余,該RPC接口應(yīng)由數(shù)據(jù)庫服務(wù)器提供,不必完全嚴(yán)格檢查.
if (!RPC.checkReminds()) {
reminds = false;
}
}
return reminds;
}
/**
* 每一個HTTP請求都要經(jīng)過該預(yù)處理.
*/
public static void preProcess(HttpRequest request) {
if (checkReminds()) {
// 一個并發(fā)的隊列
RequestQueue.queue.add(request);
} else {
// 如果已經(jīng)沒有商品了,則直接駁回請求即可.
forbidden();
}
}
}
并發(fā)隊列的選擇
ConcurrentLinkedQueue、LinkedBlockingQueue和ArrayBlockingQueue 。
ArrayBlockingQueue是 初始容量固定的阻塞隊列
,我們可以用來作為數(shù)據(jù)庫模塊成功競拍的隊列,比如有10個商品,那么我們就設(shè)定一個10大小的數(shù)組隊列。ConcurrentLinkedQueue使用的是 CAS原語無鎖隊列實現(xiàn),是一個異步隊列 ,入隊的速度很快,出隊進行了加鎖,性能稍慢。 LinkedBlockingQueue也是 阻塞的隊列,入隊和出隊都用了加鎖 ,當(dāng)隊空的時候線程會暫時阻塞。
,一般不會出現(xiàn)隊空的情況,所以我們可以選擇ConcurrentLinkedQueue來作為我們的請求隊列實現(xiàn):
package seckill;
import java.util.concurrent.ArrayBlockingQueue;
import java.util.concurrent.ConcurrentLinkedQueue;
import org.apache.http.HttpRequest;
public class RequestQueue {
public static ConcurrentLinkedQueue<HttpRequest> queue = new ConcurrentLinkedQueue<HttpRequest>();
}
用戶請求模塊
package seckill;
import org.apache.http.HttpRequest;
public class Processor {
/**
* 發(fā)送秒殺事務(wù)到數(shù)據(jù)庫隊列.
*/
public static void kill(BidInfo info) {
DB.bids.add(info);
}
public static void process() {
BidInfo info = new BidInfo(RequestQueue.queue.poll());
if (info != null) {
kill(info);
}
}
}
class BidInfo {
BidInfo(HttpRequest request) {
// Do something.
}
}
數(shù)據(jù)庫模塊
數(shù)據(jù)庫主要是使用一個ArrayBlockingQueue來暫存有可能成功的用戶請求。
package seckill;
import java.util.concurrent.ArrayBlockingQueue;
/**
* DB應(yīng)該是數(shù)據(jù)庫的唯一接口.
*/
public class DB {
public static int count = 10;
public static ArrayBlockingQueue<BidInfo> bids = new ArrayBlockingQueue<BidInfo>(10);
public static boolean checkReminds() {
// TODO
return true;
}
// 單線程操作
public static void bid() {
BidInfo info = bids.poll();
while (count-- > 0) {
// insert into table Bids values(item_id, user_id, bid_date, other)
// select count(id) from Bids where item_id = ?
// 如果數(shù)據(jù)庫商品數(shù)量大約總數(shù),則標(biāo)志秒殺已完成,設(shè)置標(biāo)志位reminds = false.
info = bids.poll();
}
}
}
4.4 數(shù)據(jù)庫設(shè)計
4.4.1 基本概念


范圍:range
優(yōu)點:簡單,容易擴展 缺點:各庫壓力不均(新號段更活躍)
哈希:hash 【大部分互聯(lián)網(wǎng)公司采用的方案二:哈希分庫,哈希路由】
優(yōu)點:簡單,數(shù)據(jù)均衡,負(fù)載均勻 缺點:遷移麻煩(2庫擴3庫數(shù)據(jù)要遷移)
路由服務(wù):router-config-server
優(yōu)點:靈活性強,業(yè)務(wù)與路由算法解耦 缺點:每次訪問數(shù)據(jù)庫前多一次查詢


4.4.2 設(shè)計思路
如何保證數(shù)據(jù)可用性; 如何提高數(shù)據(jù)庫讀性能(大部分應(yīng)用讀多寫少,讀會先成為瓶頸); 如何保證一致性; 如何提高擴展性;
如何保證數(shù)據(jù)的可用性?
如何保證站點的可用性?復(fù)制站點,冗余站點 如何保證服務(wù)的可用性?復(fù)制服務(wù),冗余服務(wù) 如何保證數(shù)據(jù)的可用性?復(fù)制數(shù)據(jù),冗余數(shù)據(jù)
如何保證數(shù)據(jù)庫“讀”高可用?

如何保證數(shù)據(jù)庫“寫”高可用?

兩個寫庫使用不同的初始值,相同的步長來增加id:1寫庫的id為0,2,4,6…;2寫庫的id為1,3,5,7…; 不使用數(shù)據(jù)的id,業(yè)務(wù)層自己生成唯一的id,保證數(shù)據(jù)不沖突;

讀寫沒有延時; 讀寫高可用;
不能通過加從庫的方式擴展讀性能; 資源利用率為50%,一臺冗余主沒有提供服務(wù);
如何擴展讀性能

寫庫 不建立索引; 線上讀庫 建立線上訪問索引,例如uid; 線下讀庫 建立線下訪問索引,例如time;
從庫越多,同步越慢; 同步越慢,數(shù)據(jù)不一致窗口越大(不一致后面說,還是先說讀性能的提高);


。為什么要引入服務(wù)層,今天不展開,采用了“服務(wù)+數(shù)據(jù)庫+緩存一套”的方式提供數(shù)據(jù)訪問, 用cache提高讀性能 。
不管采用主從的方式擴展讀性能,還是緩存的方式擴展讀性能,數(shù)據(jù)都要復(fù)制多份(主+從,db+cache),一定會引發(fā)一致性問題。
如何保證一致性?
中間件

(百度,騰訊,阿里,360等一些公司有)。
強制讀主


(1)淘汰cache; (2)寫數(shù)據(jù)庫;
(1)讀cache,如果cache hit則返回; (2)如果cache miss,則讀從庫; (3)讀從庫后,將數(shù)據(jù)放回cache;
解決辦法是“緩存雙淘汰”,寫操作時序升級為:
(1)淘汰cache; (2)寫數(shù)據(jù)庫; (3)在經(jīng)過“主從同步延時窗口時間”后,再次發(fā)起一個異步淘汰cache的請求;
如何提高數(shù)據(jù)庫的擴展性?

第一步 ,將一個主庫提升; 第二步 ,修改配置,2庫變4庫(原來MOD2,現(xiàn)在配置修改后MOD4),擴容完成;
;數(shù)據(jù)不需要遷移,同時,雙主互相同步,一遍是余0,一邊余2,兩邊數(shù)據(jù)同步也不會沖突,秒級完成擴容!
將舊的雙主同步解除; 增加新的雙主(雙主是保證可用性的,shadow-master平時不提供服務(wù)); 刪除多余的數(shù)據(jù)(余0的主,可以將余2的數(shù)據(jù)刪除掉);

5 大并發(fā)帶來的挑戰(zhàn)
5.1 請求接口的合理設(shè)計
。這個后端接口,必須能夠支持高并發(fā)請求,同時,非常重要的一點,必須盡可能“快”,在最短的時間里返回用戶的請求結(jié)果。
為了實現(xiàn)盡可能快這一點,接口的后端存儲使用內(nèi)存級別的操作會更好一點 。仍然直接面向MySQL之類的存儲是不合適的,
如果有這種復(fù)雜業(yè)務(wù)的需求,都建議采用異步寫入 。

,就是說秒殺當(dāng)下不知道結(jié)果,一段時間后才可以從頁面中看到用戶是否秒殺成功。但是,這種屬于“偷懶”行為,同時給用戶的體驗也不好,容易被用戶認(rèn)為是“暗箱操作”。
5.2 高并發(fā)的挑戰(zhàn):一定要“快”
。舉個例子,我們假設(shè)處理一個業(yè)務(wù)請求平均響應(yīng)時間為100ms,同時,系統(tǒng)內(nèi)有20臺Apache的Web服務(wù)器,配置MaxClients為500個(表示Apache的最大連接數(shù)目)。
20*500/0.1 = 100000 (10萬QPS)
在高并發(fā)的實際場景下,機器都處于高負(fù)載的狀態(tài),在這個時候平均響應(yīng)時間會被大大增加 。
。因此上述的 MaxClient數(shù)目,要根據(jù)CPU、內(nèi)存等硬件因素綜合考慮,絕對不是越多越好 ??梢?br>通過Apache自帶的abench來測試一下,取一個合適的值 。然后,我們
選擇內(nèi)存操作級別的存儲的Redis,在高并發(fā)的狀態(tài)下,存儲的響應(yīng)時間至關(guān)重要
。網(wǎng)絡(luò)帶寬雖然也是一個因素,不過,這種請求數(shù)據(jù)包一般比較小,一般很少成為請求的瓶頸。負(fù)載均衡成為系統(tǒng)瓶頸的情況比較少,在這里不做討論哈。
20*500/0.25 = 40000 (4萬QPS)

惡性循環(huán)最終導(dǎo)致“雪崩”(其中一臺Web機器掛了,導(dǎo)致流量分散到其他正常工作的機器上,再導(dǎo)致正常的機器也掛,然后惡性循環(huán)) ,將整個Web系統(tǒng)拖垮。
5.3 重啟與過載保護
。如果是redis/memcache這種服務(wù)也掛了,重啟的時候需要注意“預(yù)熱”,并且很可能需要比較長的時間。
。在前端設(shè)置過濾是最簡單的方式,但是,這種做法是被用戶“千夫所指”的行為。更合適一點的是, 將過載保護設(shè)置在CGI入口層,快速將客戶的直接請求返回
。
6 作弊的手段:進攻與防守
這種做法的理由也很簡單,就是在參與秒殺和搶購的請求中,自己的請求數(shù)目占比越多,成功的概率越高 。
6.1 同一個賬號,一次性發(fā)出多個請求
多個并發(fā)請求通過負(fù)載均衡服務(wù)器,分配到內(nèi)網(wǎng)的多臺Web服務(wù)器,它們首先向存儲發(fā)送查詢請求,然后,在某個請求成功寫入?yún)⑴c記錄的時間差內(nèi),其他的請求獲查詢到的結(jié)果都是“沒有參與記錄”
。這里,就存在邏輯判斷被繞過的風(fēng)險。

實現(xiàn)方案,可以通過Redis這種內(nèi)存緩存服務(wù),寫入一個標(biāo)志位(只允許1個請求寫成功,結(jié)合watch的樂觀鎖的特性),成功寫入的則可以繼續(xù)參加 。

6.2 多個賬號,一次性發(fā)送多個請求
也導(dǎo)致了出現(xiàn)了一些特殊的工作室,通過編寫自動注冊腳本,積累了一大批“僵尸賬號”,數(shù)量龐大,幾萬甚至幾十萬的賬號不等,專門做各種刷的行為(這就是微博中的“僵尸粉“的來源)
。舉個例子,例如微博中有轉(zhuǎn)發(fā)抽獎的活動,如果我們使用幾萬個“僵尸號”去混進去轉(zhuǎn)發(fā),這樣就可以大大提升我們中獎的概率。

彈出驗證碼,最核心的追求,就是分辨出真實用戶。
因此,大家可能經(jīng)常發(fā)現(xiàn),網(wǎng)站彈出的驗證碼,有些是“鬼神亂舞”的樣子,有時讓我們根本無法看清。他們這樣做的原因,其實也是為了讓驗證碼的圖片不被輕易識別,因為強大的“自動腳本”可以通過圖片識別里面的字符,然后讓腳本自動填寫驗證碼。實際上,有一些非常創(chuàng)新的驗證碼,效果會比較好,例如給你一個簡單問題讓你回答,或者讓你完成某些簡單操作(例如百度貼吧的驗證碼)。直接禁止IP,實際上是有些粗暴的,因為有些真實用戶的網(wǎng)絡(luò)場景恰好是同一出口IP的,可能會有“誤傷“
。但是這一個做法簡單高效,根據(jù)實際場景使用可以獲得很好的效果。
6.3 多個賬號,不同IP發(fā)送不同請求
這些“工作室”,發(fā)現(xiàn)你對單機IP請求頻率有控制之后,他們也針對這種場景,想出了他們的“新進攻方案”,就是不斷改變IP 。

。還有一些更為黑暗一點的,就是
通過木馬黑掉普通用戶的電腦,這個木馬也不破壞用戶電腦的正常運作,只做一件事情,就是轉(zhuǎn)發(fā)IP包,普通用戶的電腦被變成了IP代理出口
。通過這種做法,黑客就拿到了大量的獨立IP,然后搭建為隨機IP服務(wù),就是為了掙錢。
通常只能通過設(shè)置業(yè)務(wù)門檻高來限制這種請求了,或者通過賬號行為的”數(shù)據(jù)挖掘“來提前清理掉它們 。
。根據(jù)這些特點,適當(dāng)設(shè)置參與門檻,例如限制參與秒殺的賬號等級。通過這些業(yè)務(wù)手段,也是可以過濾掉一些僵尸號 。
7 高并發(fā)下的數(shù)據(jù)安全
(多個線程同時運行同一段代碼,如果每次運行結(jié)果和單線程運行的結(jié)果是一樣的,結(jié)果和預(yù)期相同,就是線程安全的)。
如果是MySQL數(shù)據(jù)庫,可以使用它自帶的鎖機制很好的解決問題,但是,在大規(guī)模并發(fā)的場景中,是不推薦使用MySQL的 。
秒殺和搶購的場景中,還有另外一個問題,就是“超發(fā)”,如果在這方面控制不慎,會產(chǎn)生發(fā)送過多的情況
。我們也曾經(jīng)聽說過,某些電商搞搶購活動,買家成功拍下后,商家卻不承認(rèn)訂單有效,拒絕發(fā)貨。這里的問題,也許并不一定是商家奸詐,而是系統(tǒng)技術(shù)層面存在超發(fā)風(fēng)險導(dǎo)致的。
7.1 超發(fā)的原因

7.2 悲觀鎖思路
悲觀鎖,也就是在修改數(shù)據(jù)的時候,采用鎖定狀態(tài),排斥外部請求的修改。遇到加鎖的狀態(tài),就必須等待。

我們的場景是“高并發(fā)”。也就是說,會很多這樣的修改請求,每個請求都需要等待“鎖”,某些線程可能永遠(yuǎn)都沒有機會搶到這個“鎖”,這種請求就會死在那里
。同時,這種請求會很多, 瞬間增大系統(tǒng)的平均響應(yīng)時間,結(jié)果是可用連接數(shù)被耗盡,系統(tǒng)陷入異常 。
7.3 FIFO隊列思路

高并發(fā)的場景下,因為請求很多,很可能一瞬間將隊列內(nèi)存“撐爆”,然后系統(tǒng)又陷入到了異常狀態(tài)
。或者設(shè)計一個極大的內(nèi)存隊列,也是一種方案,但是,系統(tǒng)處理完一個隊列內(nèi)請求的速度根本無法和瘋狂涌入隊列中的數(shù)目相比。也就是說,隊列內(nèi)的請求會越積累越多,最終Web系統(tǒng)平均響應(yīng)時候還是會大幅下降,系統(tǒng)還是陷入異常。
7.4 樂觀鎖思路
實現(xiàn)就是,這個數(shù)據(jù)所有請求都有資格去修改,但會獲得一個該數(shù)據(jù)的版本號,只有版本號符合的才能更新成功,其他的返回?fù)屬徥?。這樣的話,我們就不需要考慮隊列的問題,不過,
它會增大CPU的計算開銷 。但是,綜合來說,這是一個比較好的解決方案。

8 總結(jié)
評論
圖片
表情
