史上最便捷搭建Zookeeper服務(wù)器的方法
公眾號(hào)關(guān)注“杰哥的IT之旅”,
選擇“星標(biāo)”,重磅干貨,第一時(shí)間送達(dá)!
什么是 ZooKeeper
ZooKeeper 是 Apache 的一個(gè)頂級(jí)項(xiàng)目,為分布式應(yīng)用提供高效、高可用的分布式協(xié)調(diào)服務(wù),提供了諸如數(shù)據(jù)發(fā)布/訂閱、負(fù)載均衡、命名服務(wù)、分布式協(xié)調(diào)/通知和分布式鎖等分布式基礎(chǔ)服務(wù)。由于 ZooKeeper 便捷的使用方式、卓越的性能和良好的穩(wěn)定性,被廣泛地應(yīng)用于諸如 Hadoop、HBase、Kafka 和 Dubbo 等大型分布式系統(tǒng)中。
ZooKeeper 有三種運(yùn)行模式:?jiǎn)螜C(jī)模式、偽集群模式和集群模式。
單機(jī)模式:這種模式一般適用于開(kāi)發(fā)測(cè)試環(huán)境,一方面我們沒(méi)有那么多機(jī)器資源,另外就是平時(shí)的開(kāi)發(fā)調(diào)試并不需要極好的穩(wěn)定性。
集群模式:一個(gè) ZooKeeper 集群通常由一組機(jī)器組成,一般 3 臺(tái)以上就可以組成一個(gè)可用的 ZooKeeper 集群了。組成 ZooKeeper 集群的每臺(tái)機(jī)器都會(huì)在內(nèi)存中維護(hù)當(dāng)前的服務(wù)器狀態(tài),并且每臺(tái)機(jī)器之間都會(huì)互相保持通信。
偽集群模式:這是一種特殊的集群模式,即集群的所有服務(wù)器都部署在一臺(tái)機(jī)器上。當(dāng)你手頭上有一臺(tái)比較好的機(jī)器,如果作為單機(jī)模式進(jìn)行部署,就會(huì)浪費(fèi)資源,這種情況下,ZooKeeper 允許你在一臺(tái)機(jī)器上通過(guò)啟動(dòng)不同的端口來(lái)啟動(dòng)多個(gè) ZooKeeper 服務(wù)實(shí)例,以此來(lái)以集群的特性來(lái)對(duì)外服務(wù)。
ZooKeeper 的相關(guān)知識(shí)
Zookeeper 中的角色
領(lǐng)導(dǎo)者(leader):負(fù)責(zé)進(jìn)行投票的發(fā)起和決議,更新系統(tǒng)狀態(tài)。
跟隨者(follower):用于接收客戶端請(qǐng)求并給客戶端返回結(jié)果,在選主過(guò)程中進(jìn)行投票。
觀察者(observer):可以接受客戶端連接,將寫(xiě)請(qǐng)求轉(zhuǎn)發(fā)給 leader,但是observer 不參加投票的過(guò)程,只是為了擴(kuò)展系統(tǒng),提高讀取的速度。

ZooKeeper 的數(shù)據(jù)模型
層次化的目錄結(jié)構(gòu),命名符合常規(guī)文件系統(tǒng)規(guī)范,類(lèi)似于 Linux。
每個(gè)節(jié)點(diǎn)在 ZooKeeper 中叫做 Znode,并且其有一個(gè)唯一的路徑標(biāo)識(shí)。
節(jié)點(diǎn) Znode 可以包含數(shù)據(jù)和子節(jié)點(diǎn),但是 EPHEMERAL 類(lèi)型的節(jié)點(diǎn)不能有子節(jié)點(diǎn)。
Znode 中的數(shù)據(jù)可以有多個(gè)版本,比如某一個(gè)路徑下存有多個(gè)數(shù)據(jù)版本,那么查詢(xún)這個(gè)路徑下的數(shù)據(jù)就需要帶上版本。
客戶端應(yīng)用可以在節(jié)點(diǎn)上設(shè)置監(jiān)視器。
節(jié)點(diǎn)不支持部分讀寫(xiě),而是一次性完整讀寫(xiě)。

ZooKeeper 的節(jié)點(diǎn)特性
ZooKeeper 節(jié)點(diǎn)是生命周期的,這取決于節(jié)點(diǎn)的類(lèi)型。在 ZooKeeper 中,節(jié)點(diǎn)根據(jù)持續(xù)時(shí)間可以分為持久節(jié)點(diǎn)(PERSISTENT)、臨時(shí)節(jié)點(diǎn)(EPHEMERAL),根據(jù)是否有序可以分為順序節(jié)點(diǎn)(SEQUENTIAL)、和無(wú)序節(jié)點(diǎn)(默認(rèn)是無(wú)序的)。
持久節(jié)點(diǎn)一旦被創(chuàng)建,除非主動(dòng)移除,不然一直會(huì)保存在 ZooKeeper 中(不會(huì)因?yàn)閯?chuàng)建該節(jié)點(diǎn)的客戶端的會(huì)話失效而消失)。
ZooKeeper 的應(yīng)用場(chǎng)景
ZooKeeper 是一個(gè)高可用的分布式數(shù)據(jù)管理與系統(tǒng)協(xié)調(diào)框架?;趯?duì) Paxos 算法的實(shí)現(xiàn),使該框架保證了分布式環(huán)境中數(shù)據(jù)的強(qiáng)一致性,也正是基于這樣的特性,使得 ZooKeeper 解決很多分布式問(wèn)題。
值得注意的是,ZooKeeper 并非天生就是為這些應(yīng)用場(chǎng)景設(shè)計(jì)的,都是后來(lái)眾多開(kāi)發(fā)者根據(jù)其框架的特性,利用其提供的一系列 API 接口(或者稱(chēng)為原語(yǔ)集),摸索出來(lái)的典型使用方法。
數(shù)據(jù)發(fā)布與訂閱(配置中心)
發(fā)布與訂閱模型,即所謂的配置中心,顧名思義就是發(fā)布者將數(shù)據(jù)發(fā)布到 ZooKeeper 節(jié)點(diǎn)上,供訂閱者動(dòng)態(tài)獲取數(shù)據(jù),實(shí)現(xiàn)配置信息的集中式管理和動(dòng)態(tài)更新。例如全局的配置信息,服務(wù)式服務(wù)框架的服務(wù)地址列表等就非常適合使用。
應(yīng)用中用到的一些配置信息放到 ZooKeeper 上進(jìn)行集中管理。這類(lèi)場(chǎng)景通常是這樣:應(yīng)用在啟動(dòng)的時(shí)候會(huì)主動(dòng)來(lái)獲取一次配置,同時(shí)在節(jié)點(diǎn)上注冊(cè)一個(gè) Watcher。這樣一來(lái),以后每次配置有更新的時(shí)候,都會(huì)實(shí)時(shí)通知到訂閱的客戶端,從來(lái)達(dá)到獲取最新配置信息的目的。
分布式搜索服務(wù)中,索引的元信息和服務(wù)器集群機(jī)器的節(jié)點(diǎn)狀態(tài)存放在 ZooKeeper 的一些指定節(jié)點(diǎn),供各個(gè)客戶端訂閱使用。
分布式日志收集系統(tǒng)
這個(gè)系統(tǒng)的核心工作是收集分布在不同機(jī)器的日志。收集器通常是按照應(yīng)用來(lái)分配收集任務(wù)單元,因此需要在 ZooKeeper 上創(chuàng)建一個(gè)以應(yīng)用名作為 path 的節(jié)點(diǎn) P,并將這個(gè)應(yīng)用的所有機(jī)器 IP,以子節(jié)點(diǎn)的形式注冊(cè)到節(jié)點(diǎn) P 上。這樣一來(lái)就能夠?qū)崿F(xiàn)機(jī)器變動(dòng)的時(shí)候,能夠?qū)崟r(shí)通知到收集器調(diào)整任務(wù)分配。
系統(tǒng)中有些信息需要?jiǎng)討B(tài)獲取,并且還會(huì)存在人工手動(dòng)去修改這個(gè)信息的發(fā)問(wèn)。通常是暴露出接口,例如 JMX 接口,來(lái)獲取一些運(yùn)行時(shí)的信息。引入 ZooKeeper 之后,就不用自己實(shí)現(xiàn)一套方案了,只要將這些信息存放到指定的 ZooKeeper 節(jié)點(diǎn)上即可。
注意:在上面提到的應(yīng)用場(chǎng)景中,有個(gè)默認(rèn)前提——數(shù)據(jù)量很小,但是數(shù)據(jù)更新可能會(huì)比較快的場(chǎng)景。
負(fù)載均衡
這里說(shuō)的負(fù)載均衡是指軟負(fù)載均衡。在分布式環(huán)境中,為了保證高可用性,通常同一個(gè)應(yīng)用或同一個(gè)服務(wù)的提供方都會(huì)部署多份,達(dá)到對(duì)等服務(wù)。而消費(fèi)者就須要在這些對(duì)等的服務(wù)器中選擇一個(gè)來(lái)執(zhí)行相關(guān)的業(yè)務(wù)邏輯,其中比較典型的是消息中間件中的生產(chǎn)者,消費(fèi)者負(fù)載均衡。
命名服務(wù)(Naming Service)
命名服務(wù)也是分布式系統(tǒng)中比較常見(jiàn)的一類(lèi)場(chǎng)景。在分布式系統(tǒng)中,通過(guò)使用命名服務(wù),客戶端應(yīng)用能夠根據(jù)指定名字來(lái)獲取資源或服務(wù)的地址,提供者等信息。被命名的實(shí)體通常可以是集群中的機(jī)器,提供的服務(wù)地址,遠(yuǎn)程對(duì)象等等——這些我們都可以統(tǒng)稱(chēng)它們?yōu)槊郑∟ame)。其中較為常見(jiàn)的就是一些分布式服務(wù)框架中的服務(wù)地址列表。通過(guò)調(diào)用 ZooKeeper 提供的創(chuàng)建節(jié)點(diǎn)的 API,能夠很容易創(chuàng)建一個(gè)全局唯一的path,這個(gè) path 就可以作為一個(gè)名字。
阿里巴巴集團(tuán)開(kāi)源的分布式服務(wù)框架 Dubbo 中使用 ZooKeeper 來(lái)作為其命名服務(wù),維護(hù)全局的服務(wù)地址列表。在 Dubbo 的實(shí)現(xiàn)中:
服務(wù)提供者在啟動(dòng)的時(shí)候,向 ZooKeeper 上的指定節(jié)點(diǎn) /dubbo/${serviceName}/providers 目錄下寫(xiě)入自己的 URL 地址,這個(gè)操作就完成了服務(wù)的發(fā)布。
服務(wù)消費(fèi)者啟動(dòng)的時(shí)候,訂閱 /dubbo/${serviceName}/providers 目錄下的提供者 URL 地址, 并向 /dubbo/${serviceName} /consumers 目錄下寫(xiě)入自己的 URL 地址。
注意:所有向 ZooKeeper 上注冊(cè)的地址都是臨時(shí)節(jié)點(diǎn),這樣就能夠保證服務(wù)提供者和消費(fèi)者能夠自動(dòng)感應(yīng)資源的變化。
另外,Dubbo 還有針對(duì)服務(wù)粒度的監(jiān)控。方法是訂閱 /dubbo/${serviceName} 目錄下所有提供者和消費(fèi)者的信息。
分布式通知/協(xié)調(diào)
ZooKeeper 中特有 Watcher 注冊(cè)與異步通知機(jī)制,能夠很好的實(shí)現(xiàn)分布式環(huán)境下不同系統(tǒng)之間的通知與協(xié)調(diào),實(shí)現(xiàn)對(duì)數(shù)據(jù)變更的實(shí)時(shí)處理。使用方法通常是不同系統(tǒng)都對(duì) ZooKeeper 上同一個(gè) Znode 進(jìn)行注冊(cè),監(jiān)聽(tīng) Znode 的變化(包括 Znode 本身內(nèi)容及子節(jié)點(diǎn)的),其中一個(gè)系統(tǒng) Update 了 Znode,那么另一個(gè)系統(tǒng)能夠收到通知,并作出相應(yīng)處理。
另一種心跳檢測(cè)機(jī)制:檢測(cè)系統(tǒng)和被檢測(cè)系統(tǒng)之間并不直接關(guān)聯(lián)起來(lái),而是通過(guò) ZooKeeper 上某個(gè)節(jié)點(diǎn)關(guān)聯(lián),大大減少系統(tǒng)耦合。
另一種系統(tǒng)調(diào)度模式:某系統(tǒng)有控制臺(tái)和推送系統(tǒng)兩部分組成,控制臺(tái)的職責(zé)是控制推送系統(tǒng)進(jìn)行相應(yīng)的推送工作。管理人員在控制臺(tái)作的一些操作,實(shí)際上是修改了 ZooKeeper 上某些節(jié)點(diǎn)的狀態(tài),而 ZooKeeper 就把這些變化通知給它們注冊(cè) Watcher 的客戶端,即推送系統(tǒng)。于是,作出相應(yīng)的推送任務(wù)。
另一種工作匯報(bào)模式:一些類(lèi)似于任務(wù)分發(fā)系統(tǒng)。子任務(wù)啟動(dòng)后,到 ZooKeeper 來(lái)注冊(cè)一個(gè)臨時(shí)節(jié)點(diǎn),并且定時(shí)將自己的進(jìn)度進(jìn)行匯報(bào)(將進(jìn)度寫(xiě)回這個(gè)臨時(shí)節(jié)點(diǎn))。這樣任務(wù)管理者就能夠?qū)崟r(shí)知道任務(wù)進(jìn)度。
分布式鎖
分布式鎖主要得益于 ZooKeeper 為我們保證了數(shù)據(jù)的強(qiáng)一致性。鎖服務(wù)可以分為兩類(lèi):一類(lèi)是保持獨(dú)占,另一類(lèi)是控制時(shí)序。
所謂保持獨(dú)占,就是所有試圖來(lái)獲取這個(gè)鎖的客戶端,最終只有一個(gè)可以成功獲得這把鎖。通常的做法是把 ZooKeeper 上的一個(gè) Znode 看作是一把鎖,通過(guò) create znode的方式來(lái)實(shí)現(xiàn)。所有客戶端都去創(chuàng)建 /distribute_lock 節(jié)點(diǎn),最終成功創(chuàng)建的那個(gè)客戶端也即擁有了這把鎖。
控制時(shí)序,就是所有視圖來(lái)獲取這個(gè)鎖的客戶端,最終都是會(huì)被安排執(zhí)行,只是有個(gè)全局時(shí)序了。做法和上面基本類(lèi)似,只是這里 /distribute_lock 已經(jīng)預(yù)先存在,客戶端在它下面創(chuàng)建臨時(shí)有序節(jié)點(diǎn)(這個(gè)可以通過(guò)節(jié)點(diǎn)的屬性控制:CreateMode.EPHEMERAL_SEQUENTIAL 來(lái)指定)。ZooKeeper 的父節(jié)點(diǎn)(/distribute_lock)維持一份 sequence,保證子節(jié)點(diǎn)創(chuàng)建的時(shí)序性,從而也形成了每個(gè)客戶端的全局時(shí)序。
1)由于同一節(jié)點(diǎn)下子節(jié)點(diǎn)名稱(chēng)不能相同,所以只要在某個(gè)節(jié)點(diǎn)下創(chuàng)建 Znode,創(chuàng)建成功即表明加鎖成功。注冊(cè)監(jiān)聽(tīng)器監(jiān)聽(tīng)此 Znode,只要?jiǎng)h除此 Znode 就通知其他客戶端來(lái)加鎖。
2)創(chuàng)建臨時(shí)順序節(jié)點(diǎn):在某個(gè)節(jié)點(diǎn)下創(chuàng)建節(jié)點(diǎn),來(lái)一個(gè)請(qǐng)求則創(chuàng)建一個(gè)節(jié)點(diǎn),由于是順序的,所以序號(hào)最小的獲得鎖,當(dāng)釋放鎖時(shí),通知下一序號(hào)獲得鎖。
分布式隊(duì)列
隊(duì)列方面,簡(jiǎn)單來(lái)說(shuō)有兩種:一種是常規(guī)的先進(jìn)先出隊(duì)列,另一種是等隊(duì)列的隊(duì)員聚齊以后才按照順序執(zhí)行。對(duì)于第一種的隊(duì)列和上面講的分布式鎖服務(wù)中控制時(shí)序的場(chǎng)景基本原理一致,這里就不贅述了。
第二種隊(duì)列其實(shí)是在 FIFO 隊(duì)列的基礎(chǔ)上作了一個(gè)增強(qiáng)。通??梢栽?/queue 這個(gè) Znode 下預(yù)先建立一個(gè) /queue/num 節(jié)點(diǎn),并且賦值為 n(或者直接給 /queue 賦值 n)表示隊(duì)列大小。之后每次有隊(duì)列成員加入后,就判斷下是否已經(jīng)到達(dá)隊(duì)列大小,決定是否可以開(kāi)始執(zhí)行了。
這種用法的典型場(chǎng)景是:分布式環(huán)境中,一個(gè)大任務(wù) Task A,需要在很多子任務(wù)完成(或條件就緒)情況下才能進(jìn)行。這個(gè)時(shí)候,凡是其中一個(gè)子任務(wù)完成(就緒),那么就去 /taskList 下建立自己的臨時(shí)時(shí)序節(jié)點(diǎn)(CreateMode.EPHEMERAL_SEQUENTIAL)。當(dāng) /taskList 發(fā)現(xiàn)自己下面的子節(jié)點(diǎn)滿足指定個(gè)數(shù),就可以進(jìn)行下一步按序進(jìn)行處理了。
使用 docker-compose 搭建集群
上面我們介紹了關(guān)于 ZooKeeper 有這么多的應(yīng)用場(chǎng)景,那么接下來(lái)就先學(xué)習(xí)如何搭建 ZooKeeper 集群然后再進(jìn)行實(shí)戰(zhàn)上面的應(yīng)用場(chǎng)景。
文件的目錄結(jié)構(gòu)如下:
├──?docker-compose.yml
編寫(xiě) docker-compose.yml 文件
docker-compose.yml 文件內(nèi)容如下:
version:?'3.4'
services:
??zoo1:
????image:?zookeeper
????restart:?always
????hostname:?zoo1
????ports:
??????-?2181:2181
????environment:
??????ZOO_MY_ID:?1
??????ZOO_SERVERS:?server.1=0.0.0.0:2888:3888;2181?server.2=zoo2:2888:3888;2181?server.3=zoo3:2888:3888;2181
??zoo2:
????image:?zookeeper
????restart:?always
????hostname:?zoo2
????ports:
??????-?2182:2181
????environment:
??????ZOO_MY_ID:?2
??????ZOO_SERVERS:?server.1=zoo1:2888:3888;2181?server.2=0.0.0.0:2888:3888;2181?server.3=zoo3:2888:3888;2181
??zoo3:
????image:?zookeeper
????restart:?always
????hostname:?zoo3
????ports:
??????-?2183:2181
????environment:
??????ZOO_MY_ID:?3
??????ZOO_SERVERS:?server.1=zoo1:2888:3888;2181?server.2=zoo2:2888:3888;2181?server.3=0.0.0.0:2888:3888;2181
在這個(gè)配置文件中,Docker 運(yùn)行了 3 個(gè) Zookeeper 鏡像,通過(guò) ports 字段分別將本地的 2181, 2182, 2183 端口綁定到對(duì)應(yīng)容器的 2181 端口上。
ZOO_MY_ID 和 ZOO_SERVERS 是搭建 Zookeeper 集群需要的兩個(gè)環(huán)境變量。ZOO_MY_ID 標(biāo)識(shí)服務(wù)的 id,為 1-255 之間的整數(shù),必須在集群中唯一。ZOO_SERVERS 是集群中的主機(jī)列表。
在 docker-compose.yml 所在目錄下執(zhí)行 docker-compose up,可以看到啟動(dòng)的日志。
連接 ZooKeeper
將集群?jiǎn)?dòng)起來(lái)以后我們可以連接 ZooKeeper 對(duì)其進(jìn)行節(jié)點(diǎn)的相關(guān)操作。
首先需要下載 ZooKeeper。
將其解壓。
進(jìn)入其 conf/ 目錄,將 zoo_sample .cfg 改成 zoo.cfg。
配置文件說(shuō)明:
#?The?number?of?milliseconds?of?each?tick
# tickTime:CS通信心跳數(shù)
# ZooKeeper 服務(wù)器之間或客戶端與服務(wù)器之間維持心跳的時(shí)間間隔,也就是每個(gè) tickTime 時(shí)間就會(huì)發(fā)送一個(gè)心跳。tickTime以毫秒為單位。
tickTime=2000
#?The?number?of?ticks?that?the?initial
#?synchronization?phase?can?take
# initLimit:LF初始通信時(shí)限
#?集群中的follower服務(wù)器(F)與leader服務(wù)器(L)之間初始連接時(shí)能容忍的最多心跳數(shù)(tickTime的數(shù)量)。
initLimit=5
#?The?number?of?ticks?that?can?pass?between
#?sending?a?request?and?getting?an?acknowledgement
# syncLimit:LF同步通信時(shí)限
#?集群中的follower服務(wù)器與leader服務(wù)器之間請(qǐng)求和應(yīng)答之間能容忍的最多心跳數(shù)(tickTime的數(shù)量)。
syncLimit=2
#?the?directory?where?the?snapshot?is?stored.
#?do?not?use?/tmp?for?storage,?/tmp?here?is?just
#?example?sakes.
# dataDir:數(shù)據(jù)文件目錄
# ZooKeeper保存數(shù)據(jù)的目錄,默認(rèn)情況下,ZooKeeper將寫(xiě)數(shù)據(jù)的日志文件也保存在這個(gè)目錄里。
dataDir=/data/soft/zookeeper-3.4.12/data
# dataLogDir:日志文件目錄
# ZooKeeper保存日志文件的目錄。
dataLogDir=/data/soft/zookeeper-3.4.12/logs
#?the?port?at?which?the?clients?will?connect
# clientPort:客戶端連接端口
#?客戶端連接 ZooKeeper 服務(wù)器的端口,ZooKeeper 會(huì)監(jiān)聽(tīng)這個(gè)端口,接受客戶端的訪問(wèn)請(qǐng)求。
clientPort=2181
#?the?maximum?number?of?client?connections.
#?increase?this?if?you?need?to?handle?more?clients
#maxClientCnxns=60
#
#?Be?sure?to?read?the?maintenance?section?of?the
#?administrator?guide?before?turning?on?autopurge.
#
#?http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance
#
#?The?number?of?snapshots?to?retain?in?dataDir
#autopurge.snapRetainCount=3
#?Purge?task?interval?in?hours
#?Set?to?"0"?to?disable?auto?purge?feature
#autopurge.purgeInterval=1
#?服務(wù)器名稱(chēng)與地址:集群信息(服務(wù)器編號(hào),服務(wù)器地址,LF通信端口,選舉端口)
#?這個(gè)配置項(xiàng)的書(shū)寫(xiě)格式比較特殊,規(guī)則如下:
#?server.N=YYY:A:B
#?其中N表示服務(wù)器編號(hào),YYY表示服務(wù)器的IP地址,A為L(zhǎng)F通信端口,表示該服務(wù)器與集群中的leader交換的信息的端口。B為選舉端口,表示選舉新leader時(shí)服務(wù)器間相互通信的端口(當(dāng)leader掛掉時(shí),其余服務(wù)器會(huì)相互通信,選擇出新的leader)。一般來(lái)說(shuō),集群中每個(gè)服務(wù)器的A端口都是一樣,每個(gè)服務(wù)器的B端口也是一樣。但是當(dāng)所采用的為偽集群時(shí),IP地址都一樣,只能時(shí)A端口和B端口不一樣。
可以不修改 zoo.cfg,使用默認(rèn)配置。接下來(lái)在解壓后的 bin/ 目錄中執(zhí)行命令 ./zkCli.sh -server 127.0.0.1:2181 就能進(jìn)行連接了。
Welcome?to?ZooKeeper!
2020-06-01?15:03:52,512?[myid:]?-?INFO??[main-SendThread(localhost:2181):ClientCnxn$SendThread@1025]?-?Opening?socket?connection?to?server?localhost/127.0.0.1:2181.?Will?not?attempt?to?authenticate?using?SASL?(unknown?error)
JLine?support?is?enabled
2020-06-01?15:03:52,576?[myid:]?-?INFO??[main-SendThread(localhost:2181):ClientCnxn$SendThread@879]?-?Socket?connection?established?to?localhost/127.0.0.1:2181,?initiating?session
2020-06-01?15:03:52,599?[myid:]?-?INFO??[main-SendThread(localhost:2181):ClientCnxn$SendThread@1299]?-?Session?establishment?complete?on?server?localhost/127.0.0.1:2181,?sessionid?=?0x100001140080000,?negotiated?timeout?=?30000
WATCHER::
WatchedEvent?state:SyncConnected?type:None?path:null
[zk:?127.0.0.1:2181(CONNECTED)?0]
接下來(lái)可以使用命令查看節(jié)點(diǎn):
使用 ls 命令查看當(dāng)前 ZooKeeper 中所包含的內(nèi)容。命令:ls /
[zk:?127.0.0.1:2181(CONNECTED)?10]?ls?/
[zookeeper]
創(chuàng)建了一個(gè)新的 znode 節(jié)點(diǎn) zk 以及與它關(guān)聯(lián)的字符串。命令:create /zk myData
[zk:?127.0.0.1:2181(CONNECTED)?11]?create?/zk?myData
Created?/zk
[zk:?127.0.0.1:2181(CONNECTED)?12]?ls?/
[zk,?zookeeper]
[zk:?127.0.0.1:2181(CONNECTED)?13]
獲取 znode 節(jié)點(diǎn) zk。命令:get /zk
[zk:?127.0.0.1:2181(CONNECTED)?13]?get?/zk
myData
cZxid?=?0x400000008
ctime?=?Mon?Jun?01?15:07:50?CST?2020
mZxid?=?0x400000008
mtime?=?Mon?Jun?01?15:07:50?CST?2020
pZxid?=?0x400000008
cversion?=?0
dataVersion?=?0
aclVersion?=?0
ephemeralOwner?=?0x0
dataLength?=?6
numChildren?=?0
刪除 znode 節(jié)點(diǎn) zk。命令:delete /zk
[zk:?127.0.0.1:2181(CONNECTED)?14]?delete?/zk
[zk:?127.0.0.1:2181(CONNECTED)?15]?ls?/
[zookeeper]
由于篇幅有限,在接下來(lái)的文章中會(huì)根據(jù)上面提到的 ZooKeeper 應(yīng)用場(chǎng)景逐一進(jìn)行用代碼進(jìn)行實(shí)現(xiàn)。
大家可以直接從 GitHub 拉取項(xiàng)目,啟動(dòng)只需要兩步:
從 GitHub 上面拉取項(xiàng)目。
在 ZooKeeper 文件夾中執(zhí)行 docker-compose up 命令。
GitHub:
github.com/modouxiansheng/about-docker/tree/master/ZooKeeper
原文鏈接:https://www.jianshu.com/p/6d349acf48aa
文章轉(zhuǎn)自:分布式實(shí)驗(yàn)室
推薦閱讀
8 個(gè)流行的 Python 可視化工具包,你喜歡哪個(gè)?

