<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          大促密集,CDN如何保障電商體驗如絲般順滑?

          共 4479字,需瀏覽 9分鐘

           ·

          2021-01-23 00:11

          前不久,阿里云技術天團空降CSDN在線峰會,對核心技術競爭力進行解讀。其中,阿里云高級技術專家曾福華分享了《雙11: CDN如何保障電商大促如絲般順滑》的議題。俗話說:養(yǎng)兵千日,用兵一時。每一次的戰(zhàn)役,后面都有無數(shù)的團隊、無數(shù)的預案以及無數(shù)的演練在支撐著。雙十一的穩(wěn)定,不僅僅有各種創(chuàng)新各種高科技,還有非常多的體系化工程給與了足夠的保障,從物理層到應用層,從資源準入到線上演練,無一不例外的都蘊含著各種門道。面對電商大促,面對百 Tbps 級別的流量,阿里云 CDN 又是如何確保如絲般順滑的呢?


          講師:曾福華,高級技術專家,阿里云邊緣云智能調度系統(tǒng)負責人,主要研究技術方向為邊緣云網(wǎng)一體化調度。


          內容目錄:
          • CDN的發(fā)展歷程及架構簡介

          • 大促場景下,有關CDN的體量、保障以及排布那些事

          • 彈性、算力及模擬仿真等關鍵技術解讀


          dvdf


          阿里云CDN發(fā)展歷程
          2008年:阿里云CDN起源于淘寶CDN,當時主要服務對象就是淘寶電商。
          2009年:雙11啟動; CDN研發(fā)團隊成立; 阿里的CDN和電商有著千絲萬縷的聯(lián)系。
          2011年:CDN作為流量基礎設施,逐漸從服務淘寶電商擴展到全面服務阿里集團。
          2014年:阿里云CDN正式商業(yè)化; Tengine+Swift節(jié)點架構上線,替換了ATS節(jié)點架構。
          2015年:阿里云CDN與電商攜手邁進全站https階段;阿里云CDN自研AIM1.0智能調度系統(tǒng)上線。
          2017年:阿里云CDN開啟全球化戰(zhàn)略;合并優(yōu)酷CDN;正式發(fā)布SCDN、DCDN等產(chǎn)品;同年被Gartner評定為全球級供應商。
          2018年:阿里云CDN支撐了全網(wǎng)70%世界杯直播流量;AIM2.0智能調度系統(tǒng)發(fā)布。
          2019年:圍繞“智能化”,阿里云CDN在技術上深耕,在可編程CDN、多維資源負載均衡、精細化運營、各種邊緣場景服務上持續(xù)打磨。
          2020年:在全民抗疫的背景下,阿里云CDN支撐直播\在線教育等場景流量大幅增長;在技術層面,進行CDN邊緣云原生與云網(wǎng)一體化調度改造。

          上圖中可以看出,伴隨著每年雙十一以及移動互聯(lián)網(wǎng)、視頻的普及,CDN的流量也呈現(xiàn)一個指數(shù)級增長。截止目前,阿里云CDN在全球有2800+邊緣節(jié)點,覆蓋了3000多個地區(qū)和運營商。服務全球數(shù)十萬客戶,為超百萬域名提供加速服務。阿里云CDN打造的一張連接全球的邊緣生態(tài)網(wǎng)絡,在晚高峰期間每秒處理上億QPS的用戶連接請求,每天將客戶數(shù)十億次配置管理指令下發(fā)到全網(wǎng)所有節(jié)點。

          dvdf


          CDN簡介與技術架構
          眾所周知,站點加載速度對上網(wǎng)體驗影響非常大。據(jù)統(tǒng)計,大部分站點如果不能在3秒內打開的話,接近50%的用戶會選擇離開。對于大型在線系統(tǒng)來說尤為明顯,加載時間每延長1秒,一年就會減少數(shù)以億計的營收。
          CDN就是旨在提供客戶站點訪問加速的PaaS云服務(雖然CDN誕生的時候云計算的概念還沒有提出來),CDN非常普及,承載了互聯(lián)網(wǎng)90%以上的流量。工作的原理是通過廣域覆蓋的邊緣節(jié)點將內容分發(fā)到全球各地,調度系統(tǒng)將用戶請求引導合理的邊緣節(jié)點來大幅減低訪問時延,并控制著緩存內容回源流向,進而達到給客戶站點加速的目的。

          CDN比較切確的定義是,基于運營商資源通過低成本、高可靠、廣覆蓋的計算基礎設施、內容鏈接能力及視頻承載平臺。CDN內部系統(tǒng)覆蓋智能調度、網(wǎng)絡/協(xié)議以及供應鏈的管理等模塊,同時加之數(shù)據(jù)和安全防護生態(tài)能力,在此基礎之上,提供面向網(wǎng)頁、圖片、點播、直播、動態(tài)、政企、安全等不同場景的加速能力。

          dvdf


          電商大促的技術特征與挑戰(zhàn)
          今天的大促規(guī)模十分龐大,通常是百T級的業(yè)務帶寬,億級的并發(fā)請求,需要百萬級的CPU核消耗,如此大規(guī)模的場景磨煉下,推動了云產(chǎn)品尤其是CDN的快速成長。
          大促活動有兩個特征,第一是密集排布,包括活動安排緊湊,對應不同業(yè)務方;活動形式多樣,如貓晚直播、大主播、紅包、秒殺、0點開搶等等;同時活動估量非常復雜,需要考慮并發(fā)連接、帶寬、算力、命中率等指標。第二是需要在高負載下靈活變陣,考慮到:高負載大盤資源運行水位;各活動場景對不同維度資源需求差異大;各活動場景的調度覆蓋策略要具備隨機應變能力,以及強大的資源彈性伸縮能力。

          那在這樣復雜的背景之下,如何去滿足業(yè)務高速發(fā)展的需求呢?

          dvdf


          直面洪峰流量:CDN如何承載大促洪流?
          通常,拿雙11大促舉例,CDN的保障分為預備、戰(zhàn)前、護航三個大的階段。同時,因為雙11保障是組織和系統(tǒng)結合的體系工程,詳細拆解下來可以分為需求評估、預案準備、需求交付、演練壓測、封網(wǎng)保障、大促護航等不同階段。
          一、預備
          在需求采集和評估階段,CDN需要向各個業(yè)務側去采集業(yè)務需求,明確時間點、業(yè)務特征畫像和業(yè)務活動報量,同時要明確是否涉及新的功能定制。然后根據(jù)業(yè)務需求轉化成資源需求,包括庫存盤點、錯峰復用和資源缺口與建設;
          在預案的準備階段,需要盤點清楚往年既有預案和新增預案;按場景和用途分成提前預案、還是緊急預案;大部分預案是CDN平臺側獨立完成即可,還是部分需要和業(yè)務方一起配合聯(lián)動;
          定制需求交付過程中,主要涉及定制開發(fā)、聯(lián)調測試、上線驗證等過程;資源在建設交付過程中,也需要對交付的資源進行業(yè)務模擬仿真,并配合進行業(yè)務資源池的調整。
          二、戰(zhàn)前準備
          首先需要完成演練壓測階段,包括對容災、安全、性能和功能各方面的演練,進一步確保雙11對軟硬件系統(tǒng)、人員組織等方面的準備工作是到位的,包括預案是否覆蓋完整;接下來,就要進入封網(wǎng)保障階段了,一般在大型活動上線之前都會禁止所有的發(fā)布和變更,不斷進行系統(tǒng)巡檢,巡檢中確保所有出現(xiàn)的缺陷修復到位,同時這個階段也會進行戰(zhàn)前動員保障,激勵士氣的同時也對大促保障規(guī)范做進一步強調。
          三、護航階段
          正式開始護航后,通常會按照提前安排好的分工進入現(xiàn)場保障,尤其前期工作做得充分,這個階段主要工作就是盯盤,針對異常情況需要快速地發(fā)現(xiàn)并定位問題,按計劃啟動相應緊急預案進行響應。最后,保障結束后需要對整體護航進行復盤總結,為未來的大促保障去做更多參考沉淀。

          dvdf


          CDN保障大促的關鍵技術點應用
          一、大促場景彈性如何保障?
          由于大促期間業(yè)務排布非常多,那么在高資源運行水位的情況如何進行靈活的彈性調度保障非常關鍵。阿里云CDN是如何保障的呢?如下圖(上半部分)所示,海量業(yè)務中每個業(yè)務都有自己的資源偏好,為了保障彈性在業(yè)務和資源的匹配過程中,采用了不強制只擇優(yōu)的業(yè)務資源匹配機制。總結下來,阿里云的CDN調度系統(tǒng)在彈性保障上:
          • 資源共池融合是業(yè)務彈性保障的最關鍵因素;
          • 不做業(yè)務級別的節(jié)點硬件隔離,流量實時按需流動到全網(wǎng)所有節(jié)點上;
          • 彈性、質量是可權衡的雙目標,可根據(jù)實際情況進行自主靈活可控(業(yè)務資源匹配程度);
          • 按整體大盤需求進行資源規(guī)劃、資源建設、資源調度;

          如上圖(下半部分)所示,我們要做到通過業(yè)務資源池資源調度優(yōu)化,讓全網(wǎng)2800+CDN節(jié)點所有節(jié)點的齊漲齊落,這樣才能給大促業(yè)務提供最大的資源彈性保障。所以,調度不僅是全局負載均衡,更是彈性伸縮,阿里云CDN調度系統(tǒng)進行了以下準備:
          • 節(jié)點角色交調度系統(tǒng)決策,剪除硬約束;
          • 業(yè)務資源池交調度系統(tǒng)實時決策,靈活變陣;
          • 節(jié)點上業(yè)務混布交調度系統(tǒng)決策,充分復用;
          • 資源池規(guī)劃、全局負載均衡中臺的雙劍合璧,彈性伸縮;
          二、 大促場景算力如何調度?
          很多人認為CDN單純是流量分發(fā)系統(tǒng),但其實這個觀念是值得商榷的,在一些場景下還會海量大促突發(fā)請求會消耗巨大算力資源。拿雙11來舉例,電商網(wǎng)站進行了全站的https改造,在11日凌晨0點電商大促開搶瞬間,所有請求匯聚進來,這時候會形成非常巨大的尖脈沖,算力消耗十分巨大,此時如果沒有很好的機制去進行算力資源調度和全局負載均衡,就會出現(xiàn)大面積的業(yè)務異常。按天維度來看,雙11當天QPS比平時要高出約三成。所以CDN在大促場景下的另一個核心挑戰(zhàn)是:如何對海量業(yè)務算力消耗進行精準的全局負載均衡調度?
          曾福華在此介紹:在帶寬調度或流量調度時,我們可以從日志上精準推演每個請求消耗的流量,但是比較難精準去推算出每個請求消耗了多少算力,這對我們來說是非常大的難題。如下圖所示是阿里云CDN的解題思路,基于已知的每個節(jié)點的CPU消耗以及節(jié)點的并發(fā)QPS這兩個數(shù)據(jù),可以對每個業(yè)務單位QPS的CPU消耗進行公式的計算。同時根據(jù)不同時間點的不同數(shù)據(jù)變化,不斷進行機器學習訓練,得出各個業(yè)務平均單請求的CPU消耗精準數(shù)據(jù)了。有了帶寬和算力消耗的數(shù)據(jù),如此一來,之前的單維帶寬調度就需要升維到多維資源調度模型,生成帶寬與算力等多資源維度下的全局負載均衡的調度新策略。

          三、大促限流保障機制
          前面有介紹到大促期間整個大盤是在資源高水位狀態(tài)下運行,所以需要業(yè)務側做精準的業(yè)務報量,CDN平臺會根據(jù)這個報量去進行資源評估。但是任何事情都需要考慮到突發(fā)性和意外性,如果突增業(yè)務量超過了之前評估的業(yè)務報量,CDN平臺怎么進行風控呢?
          這一方面需要業(yè)務側對于報量進行精準評估,而另一方面CDN平臺側需要限流的策略來確保整體業(yè)務平穩(wěn)運行。
          阿里云CDN在限流保障上已經(jīng)在多方面沉淀了很多實戰(zhàn)經(jīng)驗和能力。阿里云CDN多級全方位限流保障包含:
          • 業(yè)務類型: 直播、點播、下載、動態(tài)加速等場景限流;
          • 限流類型: 帶寬、QPS、連接數(shù)等;
          • 限流形態(tài): 單閾值區(qū)間限流,多閾值區(qū)間限流;?
          • 限流范圍: 全網(wǎng)、區(qū)域、節(jié)點等;
          • 限流層級: L1限流、L2限流、回源限流;

          四、調度模擬仿真平臺
          前面我們講到大促場景中需在高負載的情況下進行靈活變陣,調度模擬仿真平臺是一個非常好用的工具。
          大促場景結合各個業(yè)務預估報量進行全局調度策略側模擬仿真,可以在事前未卜先知資源瓶頸和風險點會發(fā)生在什么地方,需要針對各個業(yè)務怎么做資源補充和策略調整,循環(huán)迭代調整業(yè)務資源池,直到模擬仿真平臺上風險點解除掉。
          除了大促場景之外,調度模擬仿真平臺還可以加速輔助CDN調度核心系統(tǒng)的功能演進,從全局角度來觀察驗證新組件帶來的變化影響是正面還是負面。
          模擬平臺的用途總結:
          第一,基于沙盤模擬迭代,打磨了一套零成本試錯之路
          ?加速調度核心系統(tǒng)等組件的進化;
          ?測試平臺+模擬仿真平臺,共同捍衛(wèi)穩(wěn)定性;
          ?業(yè)務策略、資源的調整實時評估;
          第二,通過大促模擬仿真,可以提前預知風險
          ?業(yè)務報量到資源建設,銜接管控全流程;
          ?精確推導資源缺口,精確推導承載增量;
          ?大促活動變陣模擬,循環(huán)迭代業(yè)務資源池;

          以上是阿里云CDN基于多年電商大促場景保障過程中沉淀下來的一些實戰(zhàn)經(jīng)驗分享。阿里云CDN目前也在邊緣云原生和云網(wǎng)一體化調度上做了很多技術上的演進,后面我們將持續(xù)給大家進行相關分享,謝謝觀看。


          今日福利-留言贏好禮


          你的程序生活中,有用到CDN嗎?它的作用是什么?



          如果你的問題獲得最多點贊,邊緣醬也會送出阿里云CDN紀念T恤一件,限量定制款哦!

          瀏覽 92
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點贊
          評論
          收藏
          分享

          手機掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  啊v手机在线小视频 | 天堂成人网| 久久精品国产亚洲AV无码偷窥 | 国产精品秘 | 欧美性猛交99久久久久99按摩 |