<kbd id="afajh"><form id="afajh"></form></kbd>
<strong id="afajh"><dl id="afajh"></dl></strong>
    <del id="afajh"><form id="afajh"></form></del>
        1. <th id="afajh"><progress id="afajh"></progress></th>
          <b id="afajh"><abbr id="afajh"></abbr></b>
          <th id="afajh"><progress id="afajh"></progress></th>

          一個完整的、全面k8s化的集群穩(wěn)定架構(gòu)(值得借鑒)

          共 3287字,需瀏覽 7分鐘

           ·

          2021-03-14 11:42

          由于公眾號文章推送規(guī)則改變,所以為了大家能夠準(zhǔn)時收到我們的文章推送,請記得將公眾號: JAVA 設(shè)為星標(biāo)~這樣就不會錯過每一篇精彩的推送啦~

           來源 |cnblogs.com/zisefeizhu/p/13692782.html

          前言

          我司的集群時刻處于崩潰的邊緣,通過近三個月的掌握,發(fā)現(xiàn)我司的集群不穩(wěn)定的原因有以下幾點(diǎn):

          1、發(fā)版流程不穩(wěn)定

          2、缺少監(jiān)控平臺【最重要的原因】

          3、缺少日志系統(tǒng)

          4、極度缺少有關(guān)操作文檔

          5、請求路線不明朗

          總的來看,問題的主要原因是缺少可預(yù)知的監(jiān)控平臺,總是等問題出現(xiàn)了才知道。次要的原因是服務(wù)器作用不明朗和發(fā)版流程的不穩(wěn)定。

          解決方案

          發(fā)版流程不穩(wěn)定

          重構(gòu)發(fā)版流程。業(yè)務(wù)全面k8s化,構(gòu)建以kubernetes為核心的ci/cd流程。

          發(fā)版流程

          有關(guān)發(fā)版流程如下:

          image.png

          淺析:研發(fā)人員提交代碼到developer分支(時刻確保developer分支處于最新的代碼),developer分支合并到需要發(fā)版環(huán)境對應(yīng)的分支,觸發(fā)企業(yè)微信告警,觸發(fā)部署在k8s集群的gitlab-runner pod,新啟runner pod 執(zhí)行ci/cd操作。在這個過程中需要有三個步驟:測試用例、打包鏡像、更新pod。

          第一次部署服務(wù)在k8s集群環(huán)境的時候可能需要:創(chuàng)建namespace、創(chuàng)建imagepullsecret、創(chuàng)建pv(storageclass)、創(chuàng)建deployment(pod controller)、創(chuàng)建svc、創(chuàng)建ingress、等。其中鏡像打包推送阿里云倉庫和從阿里云倉庫下載鏡像使用vpc訪問,不走公網(wǎng),無網(wǎng)速限制。流程完畢,runner pod 銷毀,gitlab 返回結(jié)果。

          需要強(qiáng)調(diào)的一點(diǎn)是,在這里的資源資源清單不包含configmap或者secret,牽扯到安全性的問題,不應(yīng)該出

          現(xiàn)在代碼倉庫中,我司是使用rancher充當(dāng)k8s多集群管理平臺,上述安全問題在rancher的dashboard中由運(yùn)維來做的。

          服務(wù)部署邏輯圖

          有關(guān)服務(wù)部署邏輯圖如下:

          image.png

          根據(jù)發(fā)版流程的淺析,再根據(jù)邏輯圖可以明確發(fā)版流程。在這里看到我司使用的是kong代替nginx,做認(rèn)證、鑒權(quán)、代理。而slb的ip綁定在kong上。0,1,2屬于test job;3屬于build job;4,5,6,7屬于change pod 階段。并非所有的服務(wù)都需要做存儲,需要根據(jù)實(shí)際情況來定,所以需要在kubernetes.sh里寫判斷。

          在這里我試圖使用一套CI應(yīng)用與所有的環(huán)境,所以需要在kubernetes.sh中用到的判斷較多,且.gitlab-ci.yml顯得過多。建議是使用一個ci模版,應(yīng)用于所有的環(huán)境,畢竟怎么省事怎么來。還要考慮自己的分支模式。

          具體參考:

          https://www.cnblogs.com/zisefeizhu/p/13621797.html

          缺少監(jiān)控預(yù)警平臺

          構(gòu)建可信賴且符合我司集群環(huán)境的聯(lián)邦監(jiān)控平臺,實(shí)現(xiàn)對幾個集群環(huán)境的同時監(jiān)控和預(yù)故障告警,提前介入。

          監(jiān)控預(yù)警邏輯圖

          有關(guān)監(jiān)控預(yù)警邏輯圖如下:

          image.png

          淺析:總的來說,我這里使用到的監(jiān)控方案是prometheus+shell腳本或go腳本+sentry。使用到的告警方式是企業(yè)微信或者企業(yè)郵箱。

          上圖三種顏色的線代表三種監(jiān)控方式需要注意。腳本主要是用來做備份告警、證書告警、抓賊等。prometheus這里采用的是根據(jù)prometheus-opertor修改的prometheus資源清單,數(shù)據(jù)存儲在nas上。

          sentry嚴(yán)格的來講屬于日志收集類的平臺,在這里我將其歸為監(jiān)控類,是因為我看中了其收集應(yīng)用底層代碼的崩潰信息的能力,屬于業(yè)務(wù)邏輯監(jiān)控, 旨在對業(yè)務(wù)系統(tǒng)運(yùn)行過程中產(chǎn)生的錯誤日志進(jìn)行收集歸納和監(jiān)控告警。

          注意這里使用的是聯(lián)邦監(jiān)控平臺,而部署普通的監(jiān)控平臺。

          聯(lián)邦監(jiān)控預(yù)警平臺邏輯圖

          多集群聯(lián)邦監(jiān)控預(yù)警平臺邏輯圖如下:

          image.png

          因為我司有幾個k8s集群,如果在每個集群上都部署一套監(jiān)控預(yù)警平臺的話,管理起來太過不便,所以這里我采取的策略是使用將各監(jiān)控預(yù)警平臺實(shí)行一個聯(lián)邦的策略,使用統(tǒng)一的可視化界面管理。

          這里我將實(shí)現(xiàn)三個級別餓監(jiān)控:操作系統(tǒng)級、應(yīng)用程序級、業(yè)務(wù)級。對于流量的監(jiān)控可以直接針對kong進(jìn)行監(jiān)控,模版7424。

          缺少日志系統(tǒng)

          隨著業(yè)務(wù)全面k8s化進(jìn)程的推進(jìn),對于日志系統(tǒng)的需求將更加渴望,k8s的特性是服務(wù)的故障日志難以獲取。建立可觀測的能過濾的日志系統(tǒng)可以降低對故障的分析難度。

          有關(guān)日志系統(tǒng)邏輯圖如下:

          image.png

          淺析:在業(yè)務(wù)全面上k8s化后,方便了管理維護(hù),但對于日志的管理難度就適當(dāng)上升了。我們知道pod的重啟是有多因素且不可控的,而每次pod重啟都會重新記錄日志,即新pod之前的日志是不可見的。

          當(dāng)然了有多種方法可以實(shí)現(xiàn)日志長存:遠(yuǎn)端存儲日志、本機(jī)掛載日志等。出于對可視化、可分析等的考慮,選擇使用elasticsearch構(gòu)建日志收集系統(tǒng)。

          極度缺少有關(guān)操作文檔

          建立以語雀--> 運(yùn)維相關(guān)資料為中心的文檔中心,將有關(guān)操作、問題、腳本等詳細(xì)記錄在案,以備隨時查看。

          image.png

          淺析因安全性原因,不便于過多同事查閱。運(yùn)維的工作比較特殊,安全化、文檔化是必須要保障的。我認(rèn)為不論是運(yùn)維還是運(yùn)維開發(fā),書寫文檔都是必須要掌握的,為己也好,為他也罷。文檔可以簡寫,但必須要含苞核心的步驟。我還是認(rèn)為運(yùn)維的每一步操作都應(yīng)該記錄下來。

          請求路線不明朗

          根據(jù)集群重構(gòu)的新思路,重新梳理集群級流量請求路線,構(gòu)建具備:認(rèn)證、鑒權(quán)、代理、連接、保護(hù)、控制、觀察等一體的流量管理,有效控制故障爆炸范圍。

          請求路線邏輯圖如下:

          image.png

          淺析:客戶訪問https://www.cnblogs.com/zisefeizhu 經(jīng)過kong網(wǎng)關(guān)鑒權(quán)后進(jìn)入特定名稱空間(通過名稱空間區(qū)分項目),因為服務(wù)已經(jīng)拆分為微服務(wù),服務(wù)間通信經(jīng)過istio認(rèn)證、授權(quán),需要和數(shù)據(jù)庫交互的去找數(shù)據(jù)庫,需要寫或者讀存儲的去找pv,需要轉(zhuǎn)換服務(wù)的去找轉(zhuǎn)換服務(wù)...... 然后返回響應(yīng)。

          總結(jié)

          綜上所述,構(gòu)建以:以kubernetes為核心的ci/cd發(fā)版流程、以prometheus為核心的聯(lián)邦監(jiān)控預(yù)警平臺、以elasticsearch為核心的日志收集系統(tǒng)、以語雀為核心的文檔管理中心、以kong及istio為核心的南北東西流量一體化服務(wù),可以在高平發(fā),高可靠性上做到很好保障。

          附:總體架構(gòu)邏輯圖

          image.png

          注:請根據(jù)箭頭和顏色來分析。

          淺析:上圖看著似乎過于混亂,靜下心來,根據(jù)上面的拆分模塊一層層分析還是可以看清晰的。這里我用不同顏色的連線代表不同模塊的系統(tǒng),根據(jù)箭頭走還是蠻清晰的。

          根據(jù)我司目前的業(yè)務(wù)流量,上述功能模塊,理論上可以實(shí)現(xiàn)集群的維穩(wěn)。私認(rèn)為此套方案可以確保業(yè)務(wù)在k8s集群上穩(wěn)定的運(yùn)行一段時間,再有問題就屬于代碼層面的問題了。

          這里沒有使用到中間件,倒是使用到了緩存redis不過沒畫出來。我規(guī)劃在上圖搞定后再在日志系統(tǒng)哪里和轉(zhuǎn)換服務(wù)哪里增加個中間件kafka或者rq 看情況吧。


          推薦閱讀

          2020年國內(nèi)互聯(lián)網(wǎng)公司的薪酬排名!
           基于SpringBoot 的CMS系統(tǒng),拿去開發(fā)企業(yè)官網(wǎng)真香
           深度介紹分布式系統(tǒng)原理與設(shè)計
           程序員因違反竟業(yè)協(xié)議,賠騰訊97.6萬...
          阿里一面:如何保證API接口數(shù)據(jù)安全?
          徒手?jǐn)]了一個RPC框架,理解更透徹了,代碼已上傳github,自取~
          一個完整的外賣系統(tǒng)
          防止刪庫跑路?市值縮水近 24 億元!就靠堡壘機(jī)?這貨這么吊?





          瀏覽 78
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報
          評論
          圖片
          表情
          推薦
          點(diǎn)贊
          評論
          收藏
          分享

          手機(jī)掃一掃分享

          分享
          舉報
          <kbd id="afajh"><form id="afajh"></form></kbd>
          <strong id="afajh"><dl id="afajh"></dl></strong>
            <del id="afajh"><form id="afajh"></form></del>
                1. <th id="afajh"><progress id="afajh"></progress></th>
                  <b id="afajh"><abbr id="afajh"></abbr></b>
                  <th id="afajh"><progress id="afajh"></progress></th>
                  国内自拍亚洲 | 国产在线观看无码免费视频 | 苍井空一级婬片A片在哪看 | 亚洲一区欧美日韩国产 云播 | 日本亚洲黄色电影 |