SpringBoot+Nacos+Kafka簡單實現(xiàn)微服務(wù)流編排
往期熱門文章:
1、幾行代碼,搞定 SpringBoot 接口惡意刷新和暴力請求! 2、程序員坐牢了,會被安排寫代碼嗎? 3、同事寫了一個責(zé)任鏈模式,Bug無數(shù)! 4、40 個 SpringBoot 常用注解:讓生產(chǎn)力爆表! 5、八股文天花板?。≒DF高清下載) 文章來源:https://c1n.cn/RWt2e
目錄
前言 準(zhǔn)備工作 總結(jié)
前言
準(zhǔn)備工作
| Nacos 安裝及使用入門
自己學(xué)習(xí)的話推薦使用 docker 安裝,命令如下:
拉取鏡像:
docker pull nacos/nacos-server
創(chuàng)建服務(wù):
docker run --env MODE=standalone --name nacos -d -p 8848:8848 nacos/nacos-server

| 準(zhǔn)備三個 SpringBoot 服務(wù),引入 Nacos 及 Kafka
<parent>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-parent</artifactId>
<version>2.1.0.RELEASE</version>
</parent>
<dependency>
<groupId>org.springframework.kafka</groupId>
<artifactId>spring-kafka</artifactId>
</dependency>
<dependency>
<groupId>com.alibaba.boot</groupId>
<artifactId>nacos-config-spring-boot-starter</artifactId>
<version>0.2.1</version>
</dependency>
spring:
kafka:
bootstrap-servers: kafka-server:9092
producer:
acks: all
consumer:
group-id: node1-group #三個服務(wù)分別為node1 node2 node3
enable-auto-commit: false
# 部署的nacos服務(wù)
nacos:
config:
server-addr: nacos-server:8848
| 業(yè)務(wù)解讀
我們現(xiàn)在需要對三個服務(wù)進(jìn)行編排,保障每個服務(wù)可以插拔,也可以調(diào)整服務(wù)的位置。

示意圖如上:
node1 服務(wù)監(jiān)聽前置服務(wù)發(fā)送的數(shù)據(jù)流,輸入的 topic 為前置數(shù)據(jù)服務(wù)輸出 topic node2 監(jiān)聽 node1 處理后的數(shù)據(jù),所以 node2 監(jiān)聽的 topic 為 node1 輸出的 topic,node3 同理,最終 node3 處理完成后將數(shù)據(jù)發(fā)送到數(shù)據(jù)流終點 我們現(xiàn)在要調(diào)整流程移除 node2-server,我們只需要把 node1-sink 改變成 node2-sink 即可,這樣我們這幾個服務(wù)就可以靈活的嵌入的不同項目的數(shù)據(jù)流處理業(yè)務(wù)中,做到即插即用(當(dāng)然,數(shù)據(jù)格式這些業(yè)務(wù)層面的都是需要約定好的) 動態(tài)可調(diào)還可以保證服務(wù)某一節(jié)點出現(xiàn)問題時候,即時改變數(shù)據(jù)流向,比如發(fā)送到數(shù)暫存服務(wù),避免 Kafka 中積累太多數(shù)據(jù),吞吐不平衡
| Nacos 配置
①創(chuàng)建配置
通常流編排里面每個服務(wù)都有一個輸入及輸出,分別為 input 及 sink,所以每個服務(wù)我們需要配置兩個 topic,分別是 input-topic output-topic,我們就在 nacos 里面添加輸入輸出配置。
nacos 配置項需要配置 groupId,dataId,通常我們用服務(wù)名稱作為 groupId,配置項的名稱作為 dataId。
如 node1-server 服務(wù)有一個 input 配置項,配置如下:

完成其中一個服務(wù)的配置,其它服務(wù)參考下圖配置即可:

②讀取配置
@Configuration
@NacosPropertySource(dataId = "input", groupId = "node1-server", autoRefreshed = true)
// autoRefreshed=true指的是nacos中配置發(fā)生改變后會刷新,false代表只會使用服務(wù)啟動時候讀取到的值
@NacosPropertySource(dataId = "sink", groupId = "node1-server", autoRefreshed = true)
public class NacosConfig {
@NacosValue(value = "${input:}", autoRefreshed = true)
private String input;
@NacosValue(value = "${sink:}", autoRefreshed = true)
private String sink;
public String getInput() {
return input;
}
public String getSink() {
return sink;
}
}
③監(jiān)聽配置改變
服務(wù)的輸入需要在服務(wù)啟動時候創(chuàng)建消費者,在 topic 發(fā)生改變時候重新創(chuàng)建消費者,移除舊 topic 的消費者,輸出是業(yè)務(wù)驅(qū)動的,無需監(jiān)聽改變,在每次發(fā)送時候讀取到的都是最新配置的 topic。
因為在上面的配置類中 autoRefreshed = true,這個只會刷新 nacosConfig 中的配置值,服務(wù)需要知道配置改變?nèi)ヲ?qū)動消費的創(chuàng)建業(yè)務(wù),需要創(chuàng)建 nacos 配置監(jiān)聽。
/**
* 監(jiān)聽Nacos配置改變,創(chuàng)建消費者,更新消費
*/
@Component
public class ConsumerManager {
@Value("${spring.kafka.bootstrap-servers}")
private String servers;
@Value("${spring.kafka.consumer.enable-auto-commit}")
private boolean enableAutoCommit;
@Value("${spring.kafka.consumer.group-id}")
private boolean groupId;
@Autowired
private NacosConfig nacosConfig;
@Autowired
private KafkaTemplate kafkaTemplate;
// 用于存放當(dāng)前消費者使用的topic
private String topic;
// 用于執(zhí)行消費者線程
private ExecutorService executorService;
/**
* 監(jiān)聽input
*/
@NacosConfigListener(dataId = "node1-server", groupId = "input")
public void inputListener(String input) {
// 這個監(jiān)聽觸發(fā)的時候 實際NacosConfig中input的值已經(jīng)是最新的值了 我們只是需要這個監(jiān)聽觸發(fā)我們更新消費者的業(yè)務(wù)
String inputTopic = nacosConfig.getInput();
// 我使用nacosConfig中讀取的原因是因為監(jiān)聽到內(nèi)容是input=xxxx而不是xxxx,如果使用需要自己截取一下,nacosConfig中的內(nèi)容框架會處理好,大家看一下第一張圖的配置內(nèi)容就明白了
// 先檢查當(dāng)前局部變量topic是否有值,有值代表是更新消費者,沒有值只需要創(chuàng)建即可
if(topic != null) {
// 停止舊的消費者線程
executorService.shutdownNow();
executorService == null;
}
// 根據(jù)為新的topic創(chuàng)建消費者
topic = inputTopic;
ThreadFactory threadFactory = new ThreadFactoryBuilder().setNameFormat(topic + "-pool-%d").build();
executorService = new ThreadPoolExecutor(1, 1, 0L, TimeUnit.MILLISECONDS, new LinkedBlockingQueue<Runnable>(2), threadFactory);
// 執(zhí)行消費業(yè)務(wù)
executorService.execute(() -> consumer(topic));
}
/**
* 創(chuàng)建消費者
*/
public void consumer(String topic) {
Properties properties = new Properties();
properties.put("bootstrap.servers", servers);
properties.put("enable.auto.commit", enableAutoCommit);
properties.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
properties.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
properties.put("group.id", groupId);
KafkaConsumer<String, String> consumer = new KafkaConsumer<>(properties);
consumer.subscribe(Arrays.asList(topic));
try {
while (!Thread.currentThread().isInterrupted()) {
Duration duration = Duration.ofSeconds(1L);
ConsumerRecords<String, String> records = consumer.poll(duration);
for (ConsumerRecord<String, String> record : records) {
String message = record.value();
// 執(zhí)行數(shù)據(jù)處理業(yè)務(wù) 省略業(yè)務(wù)實現(xiàn)
String handleMessage = handle(message);
// 處理完成后發(fā)送到下一個節(jié)點
kafkaTemplate.send(nacosConfig.getSink(), handleMessage);
}
}
consumer.commitAsync();
}
} catch (Exception e) {
LOGGER.error(e.getMessage(), e);
} finally {
try {
consumer.commitSync();
} finally {
consumer.close();
}
}
}
}
總結(jié)
流編排的思路整體來說就是數(shù)據(jù)流方向可調(diào),我們以此為需求,根據(jù)一些主流框架提供的 api 實現(xiàn)自己的動態(tài)調(diào)整方案,可以幫助自己更好的理解流編碼思想及原理。
在實際業(yè)務(wù)中,還有許多業(yè)務(wù)問題需要去突破,我們這樣處理更多是因為服務(wù)可插拔,便于流處理微服務(wù)在項目靈活搭配。
因為我現(xiàn)在工作是在傳統(tǒng)公司,由于一些原因很難去推動新框架的使用,經(jīng)常會用一些現(xiàn)有技術(shù)棧組合搞一些 sao 操作,供大家參考,希望大家多多指教。
往期熱門文章:
1、MySQL 暴跌! 2、超越 Xshell!號稱下一代 Terminal 終端神器,用完愛不釋手! 3、IDEA 官宣全新默認(rèn) UI,太震撼了?。?/span> 4、讓你直呼「臥槽」的 GitHub 項目! 5、Kafka又笨又重,為啥不選Redis? 6、50多個高頻免費 API 接口分享 7、IDEA公司再發(fā)新神器!超越 VS Code 騷操作! 8、我懷疑這是 IDEA 的 BUG,但是我翻遍全網(wǎng)沒找到證據(jù)! 9、Spring MVC 中的 Controller 是線程安全的嗎? 10、Gitee 倒下了???
評論
圖片
表情
