Răsfoiți Sursa

1.完善了kafka的文档
2.增加了安装kafka-eagle的文档
3.增加了mysql数据库的报错与安装文档
4.增加了centos7如何开启和关闭图形化界面

seamew 3 ani în urmă
părinte
comite
fc8b45063c

+ 10 - 0
linux/centos网络配置.md

@@ -81,3 +81,13 @@ systemctl enable ntpd && systemctl start ntpd
 hostnamectl set-hostname  
 ```
 
+# 5.界面控制
+
+```
+systemctl set-default multi-user.target  //设置成命令模式
+
+
+systemctl set-default graphical.target  //设置成图形模式
+# 进入图像模式
+startx 
+```

+ 6 - 1
后端/Mysql/4.mysql启动报错.md

@@ -1,11 +1,16 @@
+# mysql不能启动服务
 [MySQL 服务正在启动 . MySQL 服务无法启动 服务没有报告任何错误 解决方案](https://www.pianshen.com/article/7952979816/)
 
 [本地Mysql忘记密码的修改方法(windows)](https://blog.csdn.net/qq382495414/article/details/107253577/)
 
 
-sqlyog报错2058
+# sqlyog报错2058
 
 [SQLyog报错2058](https://blog.csdn.net/weixin_42759709/article/details/82895649)
 
 [ERROR 1396 (HY000): Operation ALTER USER failed for ‘root‘@‘localhost‘](https://blog.csdn.net/q258523454/article/details/84555847)
 
+# mysql远程访问
+
+[mysql配置远程访问](https://blog.csdn.net/qq_32448349/article/details/82428696)
+

+ 8 - 0
后端/Mysql/5.docker安装mysql.md

@@ -0,0 +1,8 @@
+# [docker安装](../../大数据/docker/2.centos7安装docker.md)
+
+
+
+# docker安装mysql
+
+[docker安装mysql8.0.16](https://www.cnblogs.com/innocenter/p/15048647.html)
+

+ 428 - 0
大数据/kafka/1.kafka笔记.md

@@ -0,0 +1,428 @@
+# 一、为什么使用消息队列
+
+## 1.使用同步的通信方式来解决多个服务之间的通信
+
+![image-20210910171524967](../../照片/image-20210910171524967.png)
+
+同步的通信方式会存在性能和稳定性的问题。
+
+## 2.使用异步的通信方式
+
+![image-20210910171641109](../../照片/image-20210910171641109.png)
+
+
+针对于同步的通信方式来说,异步的方式,可以让上游快速成功,极大提高了系统的吞吐量。而且在分布式系统中,通过下游多个服务的分布式事务的保障,也能保障业务执行之后的最终一致性。
+
+消息队列解决具体的是什么问题——通信问题。
+
+# 二、消息队列的流派
+
+## 1.什么是MQ
+
+Message Queue(MQ),消息队列中间件。很多⼈都说:MQ 通过将消息的发送和接收分离来实现应⽤程序的异步和解偶,这个给⼈的直觉是——MQ 是异步的,⽤来解耦的,但是这个只是 MQ 的效果⽽不是⽬的。MQ 真正的⽬的是为了通讯,屏蔽底层复杂的通讯协议,定义了⼀套应⽤层的、更加简单的通讯协议。⼀个分布式系统中两个模块之间通讯要么是HTTP,要么是⾃⼰开发(rpc) TCP,但是这两种协议其实都是原始的协议。HTTP 协议很难实现两端通讯——模块 A 可以调⽤ B,B 也可以主动调⽤ A,如果要做到这个两端都要背上WebServer,⽽且还不⽀持⻓连接(HTTP 2.0 的库根本找不到)。TCP 就更加原始了,粘包、⼼跳、私有的协议,想⼀想头⽪就发麻。MQ 所要做的就是在这些协议之上构建⼀个简单的“协议”——⽣产者/消费者模型。MQ 带给我的“协议”不是具体的通讯协议,⽽是更⾼层次通讯模型。它定义了两个对象——发送数据的叫⽣产者;接收数据的叫消费者, 提供⼀个SDK 让我们可以定义⾃⼰的⽣产者和消费者实现消息通讯⽽⽆视底层通讯协议
+
+## 2.MQ的分类
+
+### 2.1有 Broker 的 MQ
+
+这个流派通常有⼀台服务器作为 Broker,所有的消息都通过它中转。⽣产者把消息发送给它就结束⾃⼰的任务了,Broker 则把消息主动推送给消费者(或者消费者主动轮询)
+
+#### 2.1.1重 Topic
+
+kafka、JMS(ActiveMQ)就属于这个流派,⽣产者会发送 key 和数据到 Broker,由 Broker⽐较 key 之后决定给哪个消费者。这种模式是我们最常⻅的模式,是我们对 MQ 最多的印象。在这种模式下⼀个 topic 往往是⼀个⽐较⼤的概念,甚⾄⼀个系统中就可能只有⼀个topic,topic 某种意义就是 queue,⽣产者发送 key 相当于说:“hi,把数据放到 key 的队列中”
+![image-20210910173757984](../../照片/image-20210910173757984.png)
+如上图所示,Broker 定义了三个队列,key1,key2,key3,⽣产者发送数据的时候会发送key1 和 data,Broker 在推送数据的时候则推送 data(也可能把 key 带上)。虽然架构⼀样但是 kafka 的性能要⽐ jms 的性能不知道⾼到多少倍,所以基本这种类型的MQ 只有 kafka ⼀种备选⽅案。如果你需要⼀条暴⼒的数据流(在乎性能⽽⾮灵活性)那么kafka 是最好的选择
+
+#### 2.1.2轻 Topic
+
+这种的代表是 RabbitMQ(或者说是 AMQP)。⽣产者发送 key 和数据,消费者定义订阅的队列,Broker 收到数据之后会通过⼀定的逻辑计算出 key 对应的队列,然后把数据交给队列
+![image-20210910174538743](../../照片/image-20210910174538743.png)
+这种模式下解耦了 key 和 queue,在这种架构中 queue 是⾮常轻ᰁ级的(在 RabbitMQ 中它的上限取决于你的内存),消费者关⼼的只是⾃⼰的 queue;⽣产者不必关⼼数据最终给谁只要指定 key 就⾏了,中间的那层映射在 AMQP 中叫 exchange(交换机)。
+
+AMQP 中有四种 exchange
+* Direct exchange:key 就等于 queue
+* Fanout exchange:⽆视 key,给所有的 queue 都来⼀份
+* Topic exchange:key 可以⽤“宽字符”模糊匹配 queue
+* Headers exchange:⽆视 key,通过查看消息的头部元数据来决定发给那个
+* queue(AMQP 头部元数据⾮常丰富⽽且可以⾃定义)
+这种结构的架构给通讯带来了很⼤的灵活性,我们能想到的通讯⽅式都可以⽤这四种exchange 表达出来。如果你需要⼀个企业数据总线(在乎灵活性)那么 RabbitMQ 绝对的值得⼀⽤
+
+### 2.2无 Broker 的 MQ
+
+⽆ Broker 的 MQ 的代表是 ZeroMQ。该作者⾮常睿智,他⾮常敏锐的意识到——MQ 是更⾼级的 Socket,它是解决通讯问题的。所以 ZeroMQ 被设计成了⼀个“库”⽽不是⼀个中间件,这种实现也可以达到——没有 Broker 的⽬的
+![image-20210910174906661](../../照片/image-20210910174906661.png)
+节点之间通讯的消息都是发送到彼此的队列中,每个节点都既是⽣产者⼜是消费者。ZeroMQ做的事情就是封装出⼀套类似于 Socket 的 API 可以完成发送数据,读取数据
+
+ZeroMQ 其实就是⼀个跨语⾔的、᯿ᰁ级的 Actor 模型邮箱库。你可以把⾃⼰的程序想象成⼀个 Actor,ZeroMQ 就是提供邮箱功能的库;ZeroMQ 可以实现同⼀台机器的 RPC 通讯也可以实现不同机器的 TCP、UDP 通讯,如果你需要⼀个强⼤的、灵活、野蛮的通讯能⼒,别犹豫 ZeroMQ
+
+
+# 三、Kafka的基本知识
+
+## 1.Kafka的安装
+
+* 部署一台zookeeper服务器
+* 安装jdk
+* 下载kafka的安装包:http://kafka.apache.org/downloads
+* 上传到kafka服务器上:/usr/local/kafka
+* 解压缩压缩包
+* 进入到config目录内,修改server.properties
+```
+#broker.id属性在kafka集群中必须要是唯⼀
+broker.id=0
+#kafka部署的机器ip和提供服务的端⼝号
+listeners=PLAINTEXT://192.168.245.21:9092
+#kafka的消息存储⽂件
+log.dir=/usr/local/kafka/data/kafka-logs
+#kafka连接zookeeper的地址
+zookeeper.connect=localhost:2181
+```
+* 进入到bin目录内,执行以下命令来启动kafka服务器(带着配置文件)
+```
+# 先启动zookeeper,使用自带的zookeeper
+bin/zookeeper-server-start.sh -daemon   config/zookeeper.properties 
+# 启动kafka
+bin/kafka-server-start.sh -daemon  config/server.properties
+# 这里的-daemon为可选参数,加上就是后台启动,不加就是前台启动会打印到控制台。
+```
+* 校验kafka是否启动成功:
+```
+# 进入到zk内查看是否有kafka的节点:
+bin/zookeeper-shell.sh 127.0.0.1:2181
+ls /brokers/ids/
+```
+## 2.kafka中的一些基本概念
+
+
+
+| 名称          | 解释                                                         |
+| ------------- | ------------------------------------------------------------ |
+| Broker        | 消息中间件处理节点,⼀个Kafka节点就是⼀个broker,⼀个或者 多个Broker可以组成⼀个Kafka集群 |
+| Topic         | Kafka根据topic对消息进⾏归类,发布到Kafka集群的每条消息都需 要指定⼀个topic |
+| Producer      | 消息⽣产者,向Broker发送消息的客户端                         |
+| Consumer      | 消息消费者,从Broker读取消息的客户端                         |
+| ConsumerGroup | 每个Consumer属于⼀个特定的Consumer Group,⼀条消息可以 被多个不同的Consumer Group消费,但是⼀个Consumer Group 中只能有⼀个Consumer能够消费该消息 |
+| Partition     | 物理上的概念,⼀个topic可以分为多个partition,每个partition内 部消息是有序的 |
+
+
+
+## 3.创建topic
+
+* 通过kafka命令向zk中创建⼀个主题
+```
+./kafka-topics.sh --create --zookeeper 192.168.245.21:2181 --replication-factor 1 --partitions 1 --topic test
+```
+
+* 查看当前zk中所有的主题
+```
+./kafka-topics.sh --list --zookeeper 192.168.245.21:2181
+```
+
+## 4.发送消息
+
+kafka⾃带了⼀个producer命令客户端,可以从本地⽂件中读取内容,或者我们也可以以命令⾏中直接输⼊内容,并将这些内容以消息的形式发送到kafka集群中。在默认情况下,每⼀个⾏会被当做成⼀个独⽴的消息。使⽤kafka的发送消息的客户端,指定发送到的kafka服务器地址和topic
+
+```
+./kafka-console-consumer.sh --bootstrap-server 192.168.245.21:9092 --topic test
+```
+
+
+## 5.消费消息
+
+对于consumer,kafka同样也携带了⼀个命令⾏客户端,会将获取到内容在命令中进⾏输出,默认是消费最新的消息。使⽤kafka的消费者消息的客户端,从指定kafka服务器的指定topic中消费消息
+
+* ⽅式⼀:从最后⼀条消息的偏移量+1开始消费
+```
+# 创建消费者时,若不指定group.id,则该消费者属于默认消费组
+./kafka-console-consumer.sh --bootstrap-server 192.168.245.21:9092 -topic test
+```
+* ⽅式⼆:从头开始消费
+```
+./kafka-console-consumer.sh --bootstrap-server 192.168.245.21:9092 --
+from-beginning --topic test
+```
+
+
+
+## 6.关于消息的细节
+
+![image-20210911113428475](../../照片/image-20210911113428475.png)
+
+* ⽣产者将消息发送给broker,broker会将消息保存在本地的⽇志⽂件中
+```
+/usr/local/kafka/data/kafka-logs/主题-分区/00000000.log
+```
+* 消息的保存是有序的,通过offset偏移量来描述消息的有序性
+* 消费者消费消息时也是通过offset来描述当前要消费的那条消息的位置
+
+## 7.单播消息
+
+在⼀个kafka的topic中,启动两个消费者,⼀个⽣产者,问:⽣产者发送消息,这条消息是否同时会被两个消费者消费?
+
+如果多个消费者在同⼀个消费组,那么只有⼀个消费者可以收到订阅的topic中的消息。换⾔之,同⼀个消费组中只能有⼀个消费者收到⼀个topic中的消息。
+```
+./kafka-console-consumer.sh --bootstrap-server 192.168.245.21:9092 --consumer-property group.id=testGroup --topic test
+```
+
+## 8.多播消息
+
+不同的消费组订阅同⼀个topic,那么不同的消费组中只有⼀个消费者能收到消息。实际上也是多个消费组中的多个消费者收到了同⼀个消息。
+```
+./kafka-console-consumer.sh --bootstrap-server 192.168.245.21:9092 --consumer-property group.id=testGroup1 --topic test
+
+./kafka-console-consumer.sh --bootstrap-server 192.168.245.21:9092 --consumer-property group.id=testGroup2 --topic test
+```
+下图就是描述多播和单播消息的区别
+![image-20210913161137166](../../照片/image-20210913161137166.png)
+
+## 9. 查看消费组的详细信息
+```
+# 查看当前主题下有哪些消费组
+./kafka-consumer-groups.sh --bootstrap-server 192.168.245.21:9092 --list
+# 通过以下命令可以查看到消费组的详细信息:
+./kafka-consumer-groups.sh --bootstrap-server 192.168.245.21:9092 --describe --group testGroup
+```
+重点关注以下⼏个信息:
+* current-offset: 最后被消费的消息的偏移量
+* Log-end-offset: 消息总量(最后⼀条消息的偏移量)
+* Lag:积压了多少条消息
+
+# 四、Kafka中主题和分区的概念
+
+## 1.主题Topic
+
+主题-topic在kafka中是⼀个逻辑的概念,kafka通过topic将消息进⾏分类。不同的topic会被订阅该topic的消费者消费。
+
+但是有⼀个问题,如果说这个topic中的消息⾮常⾮常多,多到需要⼏T来存,因为消息是会被保存到log⽇志⽂件中的。为了解决这个⽂件过⼤的问题,kafka提出了Partition分区的概念
+
+## 2.分区Partition
+
+### 2.1分区的概念
+
+通过partition将⼀个topic中的消息分区来存储。这样的好处有多个:
+* 分区存储,可以解决统⼀存储⽂件过⼤的问题
+* 提供了读写的吞吐量:读和写可以同时在多个分区中进⾏
+![image-20210913162419193](../../照片/image-20210913162419193.png)
+
+### 2.2创建多分区的主题
+
+```
+# 为⼀个主题创建多个分区
+./kafka-topics.sh --create --zookeeper 192.168.245.21:2181 --replicationfactor 1 --partitions 2 --topic test1
+
+# 可以通过这样的命令查看topic的分区信息
+./kafka-topics.sh --describe --zookeeper 192.168.245.21:2181 --topic test1
+```
+
+
+## 3.kafka中消息日志文件保存的内容
+
+* 00000.log: 这个文件中保存的就是消息
+
+* __consumer_offsets-49:
+    kafka内部⾃⼰创建了__consumer_offsets主题包含了50个分区。这个主题⽤来存放消费者消费某个主题的偏移量。因为每个消费者都会⾃⼰维护着消费的主题的偏移量,也就是说每个消费者会把消费的主题的偏移量⾃主上报给kafka中的默认主题:
+	consumer_offsets。因此kafka为了提升这个主题的并发性,默认设置了50个分区。
+	
+	* 提交到哪个分区:通过hash函数:hash(consumerGroupId) % __consumer_offsets主题的分区数
+	* 提交到该主题中的内容是:key是consumerGroupId+topic+分区号,value就是当前offset的值
+* ⽂件中保存的消息,默认保存7天。七天到后消息会被删除。
+	
+	
+# 五、Kafka集群操作
+
+## 1.搭建kafka集群(三个broker)
+
+* 创建三个server.properties⽂件
+
+```
+# 0 1 2
+broker.id=2
+// 9092 9093 9094
+listeners=PLAINTEXT://192.168.245.21:9094
+//kafka-logs kafka-logs-1 kafka-logs-2
+log.dir=/usr/local/data/kafka-logs-2
+```
+
+* 通过命令来启动三台broker
+
+```
+./kafka-server-start.sh -daemon ../config/server.properties
+./kafka-server-start.sh -daemon ../config/server1.properties
+./kafka-server-start.sh -daemon ../config/server2.properties
+```
+
+* 校验是否启动成功
+
+```
+# 进入到zk内查看是否有kafka的节点:
+bin/zookeeper-shell.sh 127.0.0.1:2181
+ls /brokers/ids/
+```
+
+## 2.副本的概念
+
+在创建主题时,除了指明了主题的分区数以外,还指明了副本数,那么副本是⼀个什么概念呢?
+
+```
+# 副本是对分区的备份。在集群中,不同的副本会被部署在不同的broker上。下⾯例⼦:创建1个主题,2个分区、3个副本。
+./kafka-topics.sh --create --zookeeper 192.168.245.21:2181 --replication-factor 3 --partitions 2 --topic my-replicated-topic
+```
+
+副本是为了为主题中的分区创建多个备份,多个副本在kafka集群的多个broker中,会有⼀个副本作为leader,其他是follower。
+查看topic情况:
+
+```
+# 查看topic情况
+./kafka-topics.sh --describe --zookeeper 192.168.245.21:2181 --topic my-replicated-topic
+```
+![image-20210913171740164](../../照片/image-20210913171740164.png)
+![image-20210913172708931](../../照片/image-20210913172708931.png)
+
+* leade:
+kafka的写和读的操作,都发⽣在leader上。leader负责把数据同步给follower。当leader挂了,经过主从选举,从多个follower中选举产⽣⼀个新的leader
+* follower:
+接收leader的同步的数据
+* isr:
+可以同步和已同步的节点会被存⼊到isr集合中。这⾥有⼀个细节:如果isr中的节点性能
+较差,会被提出isr集合。
+
+(重点~!)此时,broker、主题、分区、副本 这些概念就全部展现了,⼤家需要把这些概念梳理清楚:
+集群中有多个broker,创建主题时可以指明主题有多个分区(把消息拆分到不同的分区中存储),可以为分区创建多个副本,不同的副本存放在不同的broker⾥。但是__consumer_offsets副本只有一个,不会保存在其他的brokers里面
+
+## 3.关于集群消费
+
+### 3.1向集群发送消息:
+```
+./kafka-console-producer.sh --broker-list 192.168.245.21:9092,192.168.245.21:9093,192.168.245.21:9094 --topic my-replicated-topic
+```
+
+### 3.2从集群中消费消息
+```
+./kafka-console-producer.sh --broker-list
+192.168.245.21:9092,192.168.245.21:9093,192.168.245.21:9094 --topic my-replicated-topic
+```
+### 3.3指定消费组来消费消息
+```
+./kafka-console-consumer.sh --bootstrap-server
+192.168.245.21:9092,192.168.245.21:9093,192.168.245.21:9094 --frombeginning --consumer-property group.id=testGroup1 --topic my-replicated-topic
+```
+
+### 3.4分区分消费组的集群消费中的细节
+
+![image-20210914145455398](../../照片/image-20210914145455398.png)
+
+* ⼀个partition只能被⼀个消费组中的⼀个消费者消费,⽬的是为了保证消费的顺序性,但是多个partion的多个消费者消费的总的顺序性是得不到保证的,那怎么做到消费的总顺序性呢?
+* partition的数量决定了消费组中消费者的数量,建议同⼀个消费组中消费者的数量不要超 过partition的数量,否则多的消费者消费不到消息
+* 如果消费者挂了,那么会触发rebalance机制(后⾯介绍),会让其他消费者来消费该分区
+
+
+# 六、kafka集群中的controller、rebalance、HW
+
+## 1.controller
+
+* 集群中谁来充当controller
+每个broker启动时会向zk创建⼀个临时序号节点,获得的序号最⼩的那个broker将会作为集群中的controller,负责这么⼏件事:
+* 当集群中有⼀个副本的leader挂掉,需要在集群中选举出⼀个新的leader,选举的规则是
+从isr集合中最左边获得。
+* 当集群中有broker新增或减少,controller会同步信息给其他broker
+* 当集群中有分区新增或减少,controller会同步信息给其他broker
+
+## 2.rebalance机制
+
+* 前提:消费组中的消费者没有指明分区来消费
+* 触发的条件:当消费组中的消费者和分区的关系发⽣变化的时候
+* 分区分配的策略:在rebalance之前,分区怎么分配会有这么三种策略
+  * range:根据公示计算得到每个消费消费哪⼏个分区:前⾯的消费者是分区总数/消费者数量+1,之后的消费者是分区总数/消费者数量 
+  * 轮询:⼤家轮着来
+  * sticky:粘合策略,如果需要rebalance,会在之前已分配的基础上调整,不会改变之前的分配情况。如果这个策略没有开,那么就要进⾏全部的重新分配。建议开启。
+
+## 3.HW和LEO
+
+LEO是某个副本最后消息的消息位置(log-end-offset)
+
+HW是已完成同步的位置。消息在写⼊broker时,且每个broker完成这条消息的同步后,hw才会变化。在这之前消费者是消费不到这条消息的。在等待Isr同步完成之后,HW更新之后,消费者才能消费到这条消息,这样的⽬的是防⽌消息的丢失。
+![image-20210914165406429](../../照片/image-20210914165406429.png)
+
+
+# 7.Kafka中的优化问题
+
+## 1.如何防⽌消息丢失
+
+* acks=0
+acks = 0如果设置为零,那么生产者将完全不会管服务器是否收到消息。
+该记录将立即添加到套接字缓冲区中并视为已发送。
+并且重试配置不会生效(因为客户端通常不会知道任何故障)。
+返回值的偏移量将始终等于 -1。该方式具有最大的吞吐量,
+一般建议直接配合 `send(msg)`使用。
+* acks=1
+当leader接受到消息就会直接给客户端返回成功,
+一般情况下这种模式都能很好的保证数据的不丢失,
+只有在laeder接受到数据,
+然后还没来得及同步到follower,
+就挂掉了才会导致数据的丢失,
+这种概率还是比较小的。
+这也是默认的选择方式,
+兼具较好的吞吐和较高的可靠性
+* acks=all 或者 acks=-1
+当leader接受到消息,并同步到了一定数量的follower,
+才向生产者发生成功的消息,
+同步到的follower数量由 broker 端的 min.insync.replicas 决定
+除非一些不可抗力因素,
+这种方式基本可以确保数据的完全不丢失。
+
+
+* ⽣产者:1)使⽤同步发送 2)把ack设成1或者all,并且设置同步的分区数>=2
+* 消费者:把⾃动提交改成⼿动提交
+
+## 2.如何防⽌重复消费
+
+在防⽌消息丢失的⽅案中,如果⽣产者发送完消息后,因为⽹络抖动,没有收到ack,但实际 上broker已经收到了。
+
+此时⽣产者会进⾏重试,于是broker就会收到多条相同的消息,⽽造成消费者的重复消费。
+
+怎么解决:
+* ⽣产者关闭重试:会造成丢消息(不建议)
+
+* 消费者解决⾮幂等性消费问题:
+  所谓的幂等性:多次访问的结果是⼀样的。对于rest的请求(get(幂等)、post(⾮幂等)、put(幂等)、delete(幂等))
+  解决⽅案:
+  * 在数据库中创建联合主键,防⽌相同的主键创建出多条记录
+  *  使⽤分布式锁,以业务id为锁。保证只有⼀条记录能够创建成功
+
+## 3.如何做到消息的顺序消费
+
+* ⽣产者:保证消息按顺序消费,且消息不丢失——使⽤同步的发送,ack设置成⾮0的值。
+* 消费者:主题只能设置⼀个分区,消费组中只能有⼀个消费者
+
+kafka的顺序消费使⽤场景不多,因为牺牲掉了性能,但是⽐如rocketmq在这⼀块有专⻔的
+功能已设计好。
+
+## 4.如何解决消息积压问题
+
+### 4.1消息积压问题的出现
+
+![image-20210914195022273](../../照片/image-20210914195022273.png)
+消息的消费者的消费速度远赶不上⽣产者的⽣产消息的速度,导致kafka中有⼤量的数据没有被消费。随着没有被消费的数据堆积越多,消费者寻址的性能会越来越差,最后导致整个kafka对外提供的服务的性能很差,从⽽造成其他服务也访问速度变慢,造成服务雪崩。
+
+### 4.2消息积压的解决⽅案
+
+![image-20210914195035533](../../照片/image-20210914195035533.png)
+* 在这个消费者中,使⽤多线程,充分利⽤机器的性能进⾏消费消息。
+* 通过业务的架构设计,提升业务层⾯消费的性能。
+* 创建多个消费组,多个消费者,部署到其他机器上,⼀起消费,提⾼消费者的消费速度
+* 创建⼀个消费者,该消费者在kafka另建⼀个主题,配上多个分区,多个分区再配上多个消费者。该消费者将poll下来的消息,不进⾏消费,直接转发到新建的主题上。此时,新的主题的多个分区的多个消费者就开始⼀起消费了。——不常⽤
+
+## 5.实现延时队列的效果
+
+### 5.1应⽤场景
+
+订单创建后,超过30分钟没有⽀付,则需要取消订单,这种场景可以通过延时队列来实现
+
+### 5.2具体⽅案
+
+![image-20210914195129983](../../照片/image-20210914195129983.png)
+* kafka中创建创建相应的主题
+* 消费者消费该主题的消息(轮询)
+* 消费者消费消息时判断消息的创建时间和当前时间是否超过30分钟(前提是订单没⽀付)
+ *  如果是:去数据库中修改订单状态为已取消
+ *  如果否:记录当前消息的offset,并不再继续消费之后的消息。等待1分钟后,再次 向kafka拉取该offset及之后的消息,继续进⾏判断,以此反复。
+

+ 71 - 0
大数据/kafka/2.kafka-eagle的使用.md

@@ -0,0 +1,71 @@
+# 部署环境
+
+* centos---7.5
+* java---1.8
+* kafka---2.14
+* zookeeper---3.6.3
+* kafka-eagle---2.0.5
+
+# 1.安装
+
+去[官网](https://www.kafka-eagle.org/)下载安装包
+
+# 2.解压缩
+
+* 解压到这个目录
+```
+/usr/local/kafka-eagle
+```
+# 3.配置
+
+需要修改kafka-eagle内部的配置⽂件: 
+```
+vim system-config.properties
+```
+修改⾥⾯的zk的地址和mysql的地址
+
+![image-20210917155442268](../../照片/image-20210917155442268.png)
+![image-20210917155502636](../../照片/image-20210917155502636.png)
+
+# 4.常见问题
+
+## 4.1访问缓慢
+
+1. 不能使用kafka自带的zookeeper,要使用自己的,后面需要使用JMX工具
+2. 可能是zookeeper的地址配置不对,zookeeper地址要和kafka的地址一致,该地址必须为localhost,不然会导致访问速度满
+![image-20210917155701514](../../照片/image-20210917155701514.png)
+
+## 4.2mysql数据库无法连接
+
+* 建议使用mysql5.7版本,8.0版本使用有小问题
+* 要使用mysql8.0版本,需要检查一下问题
+1. 时区设置问题
+```
+修改my.ini配置文件(优点:永久保存设置,缺点:需重启MySQL服务)
+‪C:\ProgramData\MySQL\MySQL Server 8.0\
+
+[mysqld]
+# 设置默认时区
+default-time_zone='+8:00'
+
+# 查看时间
+select now();
+```
+
+2. mysql连接问题
+```
+# 配置文件加这个
+useUnicode=true&characterEncoding=UTF8&zeroDateTimeBehavior=convertToNull&useSSL=false&allowPublicKeyRetrieval=true
+```
+
+## 4.3开启JMX功能
+
+[kafka-eagle 使用配置及远程jmx端口](http://www.kafka-eagle.org/articles/docs/quickstart/metrics.html)
+[可能遇见问题--多集群](https://blog.csdn.net/wk_dream/article/details/108086266)
+
+# 参考文献
+
+[CentOS 7 安装 JAVA环境(JDK 1.8)](https://www.cnblogs.com/stulzq/p/9286878.html)
+[Zookeeper完全分布式集群的搭建](https://my.oschina.net/longkingxu/blog/1802140)
+[zookeeper官网](https://zookeeper.apache.org/)
+[kafka官网](https://kafka.apache.org/)

+ 0 - 1665
大数据/kafka/kafka笔记.md

@@ -1,1665 +0,0 @@
-# 一、为什么使用消息队列
-
-## 1.使用同步的通信方式来解决多个服务之间的通信
-
-![image-20210910171524967](../../照片/image-20210910171524967.png)
-
-同步的通信方式会存在性能和稳定性的问题。
-
-## 2.使用异步的通信方式
-
-![image-20210910171641109](../../照片/image-20210910171641109.png)
-
-
-针对于同步的通信方式来说,异步的方式,可以让上游快速成功,极大提高了系统的吞吐量。而且在分布式系统中,通过下游多个服务的分布式事务的保障,也能保障业务执行之后的最终一致性。
-
-消息队列解决具体的是什么问题——通信问题。
-
-# 二、消息队列的流派
-
-## 1.什么是MQ
-
-Message Queue(MQ),消息队列中间件。很多⼈都说:MQ 通过将消息的发送和接收分离来实现应⽤程序的异步和解偶,这个给⼈的直觉是——MQ 是异步的,⽤来解耦的,但是这个只是 MQ 的效果⽽不是⽬的。MQ 真正的⽬的是为了通讯,屏蔽底层复杂的通讯协议,定义了⼀套应⽤层的、更加简单的通讯协议。⼀个分布式系统中两个模块之间通讯要么是HTTP,要么是⾃⼰开发(rpc) TCP,但是这两种协议其实都是原始的协议。HTTP 协议很难实现两端通讯——模块 A 可以调⽤ B,B 也可以主动调⽤ A,如果要做到这个两端都要背上WebServer,⽽且还不⽀持⻓连接(HTTP 2.0 的库根本找不到)。TCP 就更加原始了,粘包、⼼跳、私有的协议,想⼀想头⽪就发麻。MQ 所要做的就是在这些协议之上构建⼀个简单的“协议”——⽣产者/消费者模型。MQ 带给我的“协议”不是具体的通讯协议,⽽是更⾼层次通讯模型。它定义了两个对象——发送数据的叫⽣产者;接收数据的叫消费者, 提供⼀个SDK 让我们可以定义⾃⼰的⽣产者和消费者实现消息通讯⽽⽆视底层通讯协议
-
-## 2.MQ的分类
-
-### 2.1有 Broker 的 MQ
-
-这个流派通常有⼀台服务器作为 Broker,所有的消息都通过它中转。⽣产者把消息发送给它就结束⾃⼰的任务了,Broker 则把消息主动推送给消费者(或者消费者主动轮询)
-
-#### 2.1.1重 Topic
-
-kafka、JMS(ActiveMQ)就属于这个流派,⽣产者会发送 key 和数据到 Broker,由 Broker⽐较 key 之后决定给哪个消费者。这种模式是我们最常⻅的模式,是我们对 MQ 最多的印象。在这种模式下⼀个 topic 往往是⼀个⽐较⼤的概念,甚⾄⼀个系统中就可能只有⼀个topic,topic 某种意义就是 queue,⽣产者发送 key 相当于说:“hi,把数据放到 key 的队列中”
-![image-20210910173757984](../../照片/image-20210910173757984.png)
-如上图所示,Broker 定义了三个队列,key1,key2,key3,⽣产者发送数据的时候会发送key1 和 data,Broker 在推送数据的时候则推送 data(也可能把 key 带上)。虽然架构⼀样但是 kafka 的性能要⽐ jms 的性能不知道⾼到多少倍,所以基本这种类型的MQ 只有 kafka ⼀种备选⽅案。如果你需要⼀条暴⼒的数据流(在乎性能⽽⾮灵活性)那么kafka 是最好的选择
-
-#### 2.1.2轻 Topic
-
-这种的代表是 RabbitMQ(或者说是 AMQP)。⽣产者发送 key 和数据,消费者定义订阅的队列,Broker 收到数据之后会通过⼀定的逻辑计算出 key 对应的队列,然后把数据交给队列
-![image-20210910174538743](../../照片/image-20210910174538743.png)
-这种模式下解耦了 key 和 queue,在这种架构中 queue 是⾮常轻ᰁ级的(在 RabbitMQ 中它的上限取决于你的内存),消费者关⼼的只是⾃⼰的 queue;⽣产者不必关⼼数据最终给谁只要指定 key 就⾏了,中间的那层映射在 AMQP 中叫 exchange(交换机)。
-
-AMQP 中有四种 exchange
-* Direct exchange:key 就等于 queue
-* Fanout exchange:⽆视 key,给所有的 queue 都来⼀份
-* Topic exchange:key 可以⽤“宽字符”模糊匹配 queue
-* Headers exchange:⽆视 key,通过查看消息的头部元数据来决定发给那个
-* queue(AMQP 头部元数据⾮常丰富⽽且可以⾃定义)
-这种结构的架构给通讯带来了很⼤的灵活性,我们能想到的通讯⽅式都可以⽤这四种exchange 表达出来。如果你需要⼀个企业数据总线(在乎灵活性)那么 RabbitMQ 绝对的值得⼀⽤
-
-### 2.2无 Broker 的 MQ
-
-⽆ Broker 的 MQ 的代表是 ZeroMQ。该作者⾮常睿智,他⾮常敏锐的意识到——MQ 是更⾼级的 Socket,它是解决通讯问题的。所以 ZeroMQ 被设计成了⼀个“库”⽽不是⼀个中间件,这种实现也可以达到——没有 Broker 的⽬的
-![image-20210910174906661](../../照片/image-20210910174906661.png)
-节点之间通讯的消息都是发送到彼此的队列中,每个节点都既是⽣产者⼜是消费者。ZeroMQ做的事情就是封装出⼀套类似于 Socket 的 API 可以完成发送数据,读取数据
-
-ZeroMQ 其实就是⼀个跨语⾔的、᯿ᰁ级的 Actor 模型邮箱库。你可以把⾃⼰的程序想象成⼀个 Actor,ZeroMQ 就是提供邮箱功能的库;ZeroMQ 可以实现同⼀台机器的 RPC 通讯也可以实现不同机器的 TCP、UDP 通讯,如果你需要⼀个强⼤的、灵活、野蛮的通讯能⼒,别犹豫 ZeroMQ
-
-
-# 三、Kafka的基本知识
-
-## 1.Kafka的安装
-
-* 部署一台zookeeper服务器
-* 安装jdk
-* 下载kafka的安装包:http://kafka.apache.org/downloads
-* 上传到kafka服务器上:/usr/local/kafka
-* 解压缩压缩包
-* 进入到config目录内,修改server.properties
-```
-#broker.id属性在kafka集群中必须要是唯⼀
-broker.id=0
-#kafka部署的机器ip和提供服务的端⼝号
-listeners=PLAINTEXT://192.168.245.21:9092
-#kafka的消息存储⽂件
-log.dir=/usr/local/data/kafka-logs
-#kafka连接zookeeper的地址
-zookeeper.connect=localhost:2181
-```
-* 进入到bin目录内,执行以下命令来启动kafka服务器(带着配置文件)
-```
-# 先启动zookeeper,使用自带的zookeeper
-bin/zookeeper-server-start.sh [-daemon]   config/zookeeper.properties 
-# 启动kafka
-bin/kafka-server-start.sh [-daemon]  config/server.properties
-# 这里的-daemon为可选参数,加上就是后台启动,不加就是前台启动会打印到控制台。
-```
-* 校验kafka是否启动成功:
-```
-# 进入到zk内查看是否有kafka的节点:
-bin/zookeeper-shell.sh 127.0.0.1:2181
-ls /brokers/ids/
-```
-## 2.kafka中的一些基本概念
-
-
-
-| 名称          | 解释                                                         |
-| ------------- | ------------------------------------------------------------ |
-| Broker        | 消息中间件处理节点,⼀个Kafka节点就是⼀个broker,⼀个或者 多个Broker可以组成⼀个Kafka集群 |
-| Topic         | Kafka根据topic对消息进⾏归类,发布到Kafka集群的每条消息都需 要指定⼀个topic |
-| Producer      | 消息⽣产者,向Broker发送消息的客户端                         |
-| Consumer      | 消息消费者,从Broker读取消息的客户端                         |
-| ConsumerGroup | 每个Consumer属于⼀个特定的Consumer Group,⼀条消息可以 被多个不同的Consumer Group消费,但是⼀个Consumer Group 中只能有⼀个Consumer能够消费该消息 |
-| Partition     | 物理上的概念,⼀个topic可以分为多个partition,每个partition内 部消息是有序的 |
-
-
-
-## 3.创建topic
-
-* 通过kafka命令向zk中创建⼀个主题
-```
-./kafka-topics.sh --create --zookeeper 192.168.245.21:2181 --replication-factor 1 --partitions 1 --topic test
-```
-
-* 查看当前zk中所有的主题
-```
-./kafka-topics.sh --list --zookeeper 192.168.245.21:2181
-```
-
-## 4.发送消息
-
-kafka⾃带了⼀个producer命令客户端,可以从本地⽂件中读取内容,或者我们也可以以命令
-⾏中直接输⼊内容,并将这些内容以消息的形式发送到kafka集群中。在默认情况下,每⼀个
-⾏会被当做成⼀个独⽴的消息。使⽤kafka的发送消息的客户端,指定发送到的kafka服务器
-地址和topic
-
-```
-./kafka-console-producer.sh --broker-list 192.168.245.21:9092 --topic test
-```
-
-
-## 5.消费消息
-
-对于consumer,kafka同样也携带了⼀个命令⾏客户端,会将获取到内容在命令中进⾏输
-出,默认是消费最新的消息。使⽤kafka的消费者消息的客户端,从指定kafka服务器的指定
-topic中消费消息
-* ⽅式⼀:从最后⼀条消息的偏移量+1开始消费
-```
-./kafka-console-consumer.sh --bootstrap-server 192.168.245.21:9092 -topic test
-```
-* ⽅式⼆:从头开始消费
-```
-./kafka-console-consumer.sh --bootstrap-server 192.168.245.21:9092 --
-from-beginning --topic test
-```
-
-
-
-## 6.关于消息的细节
-
-![image-20210911113428475](../../照片/image-20210911113428475.png)
-
-* ⽣产者将消息发送给broker,broker会将消息保存在本地的⽇志⽂件中
-```
-/usr/local/kafka/data/kafka-logs/主题-分区/00000000.log
-```
-* 消息的保存是有序的,通过offset偏移量来描述消息的有序性
-* 消费者消费消息时也是通过offset来描述当前要消费的那条消息的位置
-
-## 7.单播消息
-
-```
-./kafka-console-consumer.sh --bootstrap-server 172 .16.253.38:9092 --
-topic test
-```
-##### 1
-
-```
-./kafka-console-consumer.sh --bootstrap-server 172 .16.253.38:9092 --
-from-beginning --topic test
-```
-##### 1
-
-```
-1 /usr/local/kafka/data/kafka-logs/主题-分区/00000000.log
-```
-
-#### 在一个kafka的topic中,启动两个消费者,一个生产者,问:生产者发送消息,这条消息是否
-
-#### 同时会被两个消费者消费?
-
-#### 如果多个消费者在同一个消费组,那么只有一个消费者可以收到订阅的topic中的消息。换言
-
-#### 之,同一个消费组中只能有一个消费者收到一个topic中的消息。
-
-## 8.多播消息
-
-#### 不同的消费组订阅同一个topic,那么不同的消费组中只有一个消费者能收到消息。实际上也
-
-#### 是多个消费组中的多个消费者收到了同一个消息。
-
-#### 下图就是描述多播和单播消息的区别
-
-## 9. 查看消费组的详细信息
-
-```
-./kafka-console-consumer.sh --bootstrap-server 172.16.253.38:9092 --
-consumer-property group.id=testGroup --topic test
-```
-##### 1
-
-```
-./kafka-console-consumer.sh --bootstrap-server 172 .16.253.38:9092 --
-consumer-property group.id=testGroup1 --topic test
-./kafka-console-consumer.sh --bootstrap-server 172 .16.253.38:9092 --
-consumer-property group.id=testGroup2 --topic test
-```
-##### 1
-
-##### 2
-
-
-## 9. 查看消费组的详细信息
-
-#### 通过以下命令可以查看到消费组的相信信息:
-
-#### 重点关注以下几个信息:
-
-#### current-offset: 最后被消费的消息的偏移量
-
-#### Log-end-offset: 消息总量(最后一条消息的偏移量)
-
-#### Lag:积压了多少条消息
-
-# 四、Kafka中主题和分区的概念
-
-## 1.主题Topic
-
-#### 主题-topic在kafka中是一个逻辑的概念,kafka通过topic将消息进行分类。不同的topic会被
-
-#### 订阅该topic的消费者消费。
-
-#### 但是有一个问题,如果说这个topic中的消息非常非常多,多到需要几T来存,因为消息是会被
-
-#### 保存到log日志文件中的。为了解决这个文件过大的问题,kafka提出了Partition分区的概念
-
-## 2.分区Partition
-
-## 1 )分区的概念
-
-#### 通过partition将一个topic中的消息分区来存储。这样的好处有多个:
-
-#### 分区存储,可以解决统一存储文件过大的问题
-
-#### 提供了读写的吞吐量:读和写可以同时在多个分区中进行
-
-```
-./kafka-consumer-groups.sh --bootstrap-server 172 .16.253.38:9092 --
-describe --group testGroup
-```
-##### 1
-
-
-## 2 )创建多分区的主题
-
-## 3.kafka中消息日志文件中保存的内容
-
-#### 00000.log: 这个文件中保存的就是消息
-
-#### __consumer_offsets-49:
-
-#### kafka内部自己创建了__consumer_offsets主题包含了 50 个分区。这个主题用来存放消费
-
-#### 者消费某个主题的偏移量。因为每个消费者都会自己维护着消费的主题的偏移量,也就是
-
-#### 说每个消费者会把消费的主题的偏移量自主上报给kafka中的默认主题:
-
-#### consumer_offsets。因此kafka为了提升这个主题的并发性,默认设置了 50 个分区。
-
-#### 提交到哪个分区:通过hash函数:hash(consumerGroupId) % __consumer_offsets
-
-#### 主题的分区数
-
-#### 提交到该主题中的内容是:key是consumerGroupId+topic+分区号,value就是当前
-
-#### offset的值
-
-#### 文件中保存的消息,默认保存 7 天。七天到后消息会被删除。
-
-# 五、Kafka集群操作
-
-## 1.搭建kafka集群(三个broker)
-
-```
-./kafka-topics.sh --create --zookeeper 172 .16.253.35:2181 --replication-
-factor 1 --partitions 2 --topic test
-```
-##### 1
-
-
-#### 创建三个server.properties文件
-
-#### 通过命令来启动三台broker
-
-#### 校验是否启动成功
-
-#### 进入到zk中查看/brokers/ids中过是否有三个znode( 0 , 1 , 2 )
-
-## 2.副本的概念
-
-#### 在创建主题时,除了指明了主题的分区数以外,还指明了副本数,那么副本是一个什么概念
-
-#### 呢?
-
-#### 副本是为了为主题中的分区创建多个备份,多个副本在kafka集群的多个broker中,会有一个
-
-#### 副本作为leader,其他是follower。
-
-#### 查看topic情况:
-
-##### # 0 1 2
-
-```
-broker.id= 2
-// 9092 9093 9094
-listeners=PLAINTEXT://192.168.65.60:
-//kafka-logs kafka-logs-1 kafka-logs-
-log.dir=/usr/local/data/kafka-logs-
-```
-##### 1 2 3 4 5 6
-
-```
-./kafka-server-start.sh -daemon ../config/server.properties
-./kafka-server-start.sh -daemon ../config/server1.properties
-./kafka-server-start.sh -daemon ../config/server2.properties
-```
-##### 1
-
-##### 2
-
-##### 3
-
-```
-./kafka-topics.sh --create --zookeeper 172 .16.253.35:2181 --replication-
-factor 3 --partitions 2 --topic my-replicated-topic
-```
-##### 1
-
-```
-# 查看topic情况
-./kafka-topics.sh --describe --zookeeper 172 .16.253.35:2181 --topic my-
-replicated-topic
-```
-##### 1
-
-##### 2
-
-
-#### leader:
-
-#### kafka的写和读的操作,都发生在leader上。leader负责把数据同步给follower。当leader挂
-
-#### 了,经过主从选举,从多个follower中选举产生一个新的leader
-
-#### follower
-
-#### 接收leader的同步的数据
-
-#### isr:
-
-#### 可以同步和已同步的节点会被存入到isr集合中。这里有一个细节:如果isr中的节点性能
-
-#### 较差,会被提出isr集合。
-
-#### (重点~!)此时,broker、主题、分区、副本 这些概念就全部展现了,大家需要把这些概
-
-#### 念梳理清楚:
-
-#### 集群中有多个broker,创建主题时可以指明主题有多个分区(把消息拆分到不同的分区中存
-
-#### 储),可以为分区创建多个副本,不同的副本存放在不同的broker里。
-
-## 3.关于集群消费
-
-
-### 1 )向集群发送消息:
-
-### 2 )从集群中消费消息
-
-### 3 )指定消费组来消费消息
-
-### 4 )分区分消费组的集群消费中的细节
-
-```
-./kafka-console-consumer.sh --bootstrap-server
-172 .16.253.38:9092,172.16.253.38:9093,172.16.253.38:9094 --from-
-beginning --consumer-property group.id=testGroup1 --topic my-replicated-
-topic
-```
-##### 1
-
-```
-./kafka-console-producer.sh --broker-list
-172 .16.253.38:9092,172.16.253.38:9093,172.16.253.38:9094 --topic my-
-replicated-topic
-```
-##### 1
-
-```
-./kafka-console-consumer.sh --bootstrap-server
-172 .16.253.38:9092,172.16.253.38:9093,172.16.253.38:9094 --from-
-beginning --consumer-property group.id=testGroup1 --topic my-replicated-
-topic
-```
-##### 1
-
-
-#### 一个partition只能被一个消费组中的一个消费者消费,目的是为了保证消费的顺序性,但
-
-#### 是多个partion的多个消费者消费的总的顺序性是得不到保证的,那怎么做到消费的总顺
-
-#### 序性呢?
-
-#### partition的数量决定了消费组中消费者的数量,建议同一个消费组中消费者的数量不要超
-
-#### 过partition的数量,否则多的消费者消费不到消息
-
-#### 如果消费者挂了,那么会触发rebalance机制(后面介绍),会让其他消费者来消费该分
-
-#### 区
-
-# 六、kafka的java客户端-生产者的实现
-
-## 1.生产者的基本实现
-
-#### 引入依赖
-
-```
-<dependency>
-<groupId>org.apache.kafka</groupId>
-<artifactId>kafka-clients</artifactId>
-<version>2.4.1</version>
-</dependency>
-```
-##### 1
-
-##### 2
-
-##### 3
-
-##### 4
-
-##### 5
-
-
-#### 具体实现
-
-```
-package com.qf.kafka;
-```
-```
-import org.apache.kafka.clients.producer.*;
-import org.apache.kafka.common.serialization.StringSerializer;
-```
-```
-import java.util.Properties;
-import java.util.concurrent.ExecutionException;
-```
-```
-public class MySimpleProducer {
-```
-```
-private final static String TOPIC_NAME = "my-replicated-topic";
-```
-```
-public static void main(String[] args) throws ExecutionException,
-InterruptedException {
-```
-##### //1.设置参数
-
-```
-Properties props = new Properties();
-props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,
-"172.16.253.38:9092,172.16.253.38:9093,172.16.253.38:9094");
-```
-```
-//把发送的key从字符串序列化为字节数组
-props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG,
-StringSerializer.class.getName());
-//把发送消息value从字符串序列化为字节数组
-props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG,
-StringSerializer.class.getName());
-```
-##### //2.创建生产消息的客户端,传入参数
-
-```
-Producer<String,String> producer = new KafkaProducer<String,
-String>(props);
-```
-##### //3.创建消息
-
-```
-//key:作用是决定了往哪个分区上发,value:具体要发送的消息内容
-ProducerRecord<String,String> producerRecord = new ProducerRecord<>
-(TOPIC_NAME,"mykeyvalue","hellokafka");
-```
-##### //4.发送消息,得到消息发送的元数据并输出
-
-```
-RecordMetadata metadata = producer.send(producerRecord).get();
-System.out.println("同步方式发送消息结果:" + "topic-" +
-metadata.topic() + "|partition-"
-```
-##### 1 2 3 4 5 6 7 8 9
-
-##### 10
-
-##### 11
-
-##### 12
-
-##### 13
-
-##### 14
-
-##### 15
-
-##### 16
-
-##### 17
-
-##### 18
-
-##### 19
-
-##### 20
-
-##### 21
-
-##### 22
-
-##### 23
-
-##### 24
-
-##### 25
-
-##### 26
-
-##### 27
-
-##### 28
-
-##### 29
-
-##### 30
-
-##### 31
-
-##### 32
-
-##### 33
-
-
-## 2.生产者的同步发送消息
-
-#### 如果生产者发送消息没有收到ack,生产者会阻塞,阻塞到3s的时间,如果还没有收到消息,
-
-#### 会进行重试。重试的次数 3 次。
-
-## 3.生产者的异步发送消息
-
-```
-+ metadata.partition() + "|offset-" + metadata.offset());
-}
-}
-```
-##### 34
-
-##### 35
-
-##### 36
-
-##### 37
-
-```
-RecordMetadata metadata = producer.send(producerRecord).get();
-System.out.println("同步方式发送消息结果:" + "topic-" +
-metadata.topic() + "|partition-"
-+ metadata.partition() + "|offset-" + metadata.offset());
-```
-##### 1
-
-##### 2
-
-##### 3
-
-
-#### 异步发送,生产者发送完消息后就可以执行之后的业务,broker在收到消息后异步调用生产
-
-#### 者提供的callback回调方法。
-
-## 4.生产者中的ack的配置
-
-#### 在同步发送的前提下,生产者在获得集群返回的ack之前会一直阻塞。那么集群什么时候返回
-
-#### ack呢?此时ack有 3 个配置:
-
-#### ack = 0 kafka-cluster不需要任何的broker收到消息,就立即返回ack给生产者,最容易
-
-#### 丢消息的,效率是最高的
-
-##### //5.异步发送消息
-
-```
-producer.send(producerRecord, new Callback() {
-public void onCompletion(RecordMetadata metadata, Exception
-exception) {
-if (exception != null) {
-System.err.println("发送消息失败:" +
-exception.getStackTrace());
-```
-##### }
-
-```
-if (metadata != null) {
-System.out.println("异步方式发送消息结果:" + "topic-" +
-metadata.topic() + "|partition-"
-+ metadata.partition() + "|offset-" + metadata.offset());
-}
-}
-});
-```
-##### 1 2 3 4 5 6 7 8 9
-
-##### 10
-
-##### 11
-
-##### 12
-
-##### 13
-
-
-#### ack=1(默认): 多副本之间的leader已经收到消息,并把消息写入到本地的log中,才
-
-#### 会返回ack给生产者,性能和安全性是最均衡的
-
-#### ack=-1/all。里面有默认的配置min.insync.replicas=2(默认为 1 ,推荐配置大于等于2),
-
-#### 此时就需要leader和一个follower同步完后,才会返回ack给生产者(此时集群中有 2 个
-
-#### broker已完成数据的接收),这种方式最安全,但性能最差。
-
-#### 下面是关于ack和重试(如果没有收到ack,就开启重试)的配置
-
-## 5.关于消息发送的缓冲区
-
-```
-props.put(ProducerConfig.ACKS_CONFIG, "1");
-/*
-发送失败会重试,默认重试间隔100ms,重试能保证消息发送的可靠性,但是也可能造
-成消息重复发送,比如网络抖动,所以需要在
-接收者那边做好消息接收的幂等性处理
-*/
-props.put(ProducerConfig.RETRIES_CONFIG, 3 );
-//重试间隔设置
-props.put(ProducerConfig.RETRY_BACKOFF_MS_CONFIG, 300 );
-```
-##### 1 2 3 4 5 6 7 8
-
-
-#### kafka默认会创建一个消息缓冲区,用来存放要发送的消息,缓冲区是32m
-
-#### kafka本地线程会去缓冲区中一次拉16k的数据,发送到broker
-
-#### 如果线程拉不到16k的数据,间隔10ms也会将已拉到的数据发到broker
-
-# 七、Java客户端消费者的实现细节
-
-## 1.消费者的基本实现
-
-```
-1 props.put(ProducerConfig.BUFFER_MEMORY_CONFIG, 33554432 );
-```
-```
-1 props.put(ProducerConfig.BATCH_SIZE_CONFIG, 16384 );
-```
-```
-1 props.put(ProducerConfig.LINGER_MS_CONFIG, 10 );
-```
-```
-package com.qf.kafka;
-```
-```
-import org.apache.kafka.clients.consumer.ConsumerConfig;
-import org.apache.kafka.clients.consumer.ConsumerRecord;
-import org.apache.kafka.clients.consumer.ConsumerRecords;
-import org.apache.kafka.clients.consumer.KafkaConsumer;
-import org.apache.kafka.common.serialization.StringDeserializer;
-```
-```
-import java.time.Duration;
-```
-##### 1 2 3 4 5 6 7 8 9
-
-
-```
-import java.util.Arrays;
-import java.util.Properties;
-```
-```
-public class MySimpleConsumer {
-```
-```
-private final static String TOPIC_NAME = "my-replicated-topic";
-private final static String CONSUMER_GROUP_NAME = "testGroup";
-```
-```
-public static void main(String[] args) {
-Properties props = new Properties();
-props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,
-"172.16.253.38:9092,172.16.253.38:9093,172.16.253.38:9094");
-// 消费分组名
-props.put(ConsumerConfig.GROUP_ID_CONFIG, CONSUMER_GROUP_NAME);
-props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,
-StringDeserializer.class.getName());
-props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,
-StringDeserializer.class.getName());
-//1.创建一个消费者的客户端
-KafkaConsumer<String, String> consumer = new KafkaConsumer<String,
-String>(props);
-//2. 消费者订阅主题列表
-consumer.subscribe(Arrays.asList(TOPIC_NAME));
-```
-```
-while (true) {
-/*
-* 3.poll() API 是拉取消息的⻓轮询
-*/
-ConsumerRecords<String, String> records =
-consumer.poll(Duration.ofMillis( 1000 ));
-for (ConsumerRecord<String, String> record : records) {
-//4.打印消息
-System.out.printf("收到消息:partition = %d,offset = %d, key =
-%s, value = %s%n", record.partition(),
-record.offset(), record.key(), record.value());
-}
-}
-}
-```
-##### }
-
-##### 10
-
-##### 11
-
-##### 12
-
-##### 13
-
-##### 14
-
-##### 15
-
-##### 16
-
-##### 17
-
-##### 18
-
-##### 19
-
-##### 20
-
-##### 21
-
-##### 22
-
-##### 23
-
-##### 24
-
-##### 25
-
-##### 26
-
-##### 27
-
-##### 28
-
-##### 29
-
-##### 30
-
-##### 31
-
-##### 32
-
-##### 33
-
-##### 34
-
-##### 35
-
-##### 36
-
-##### 37
-
-##### 38
-
-##### 39
-
-##### 40
-
-##### 41
-
-##### 42
-
-##### 43
-
-##### 44
-
-##### 45
-
-
-## 2.关于消费者自动提交和手动提交offset
-
-### 1 )提交的内容
-
-#### 消费者无论是自动提交还是手动提交,都需要把所属的消费组+消费的某个主题+消费的某个
-
-#### 分区及消费的偏移量,这样的信息提交到集群的_consumer_offsets主题里面。
-
-### 2 )自动提交
-
-#### 消费者poll消息下来以后就会自动提交offset
-
-#### 注意:自动提交会丢消息。因为消费者在消费前提交offset,有可能提交完后还没消费时消费
-
-#### 者挂了。
-
-### 3 )手动提交
-
-#### 需要把自动提交的配置改成false
-
-#### 手动提交又分成了两种:
-
-#### 手动同步提交
-
-#### 在消费完消息后调用同步提交的方法,当集群返回ack前一直阻塞,返回ack后表示提交
-
-#### 成功,执行之后的逻辑
-
-```
-// 是否自动提交offset,默认就是true
-props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, "true");
-// 自动提交offset的间隔时间
-props.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, "1000");
-```
-##### 1
-
-##### 2
-
-##### 3
-
-##### 4
-
-```
-1 props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, "false");
-```
-```
-while (true) {
-/*
-* poll() API 是拉取消息的⻓轮询
-*/
-ConsumerRecords<String, String> records =
-consumer.poll(Duration.ofMillis( 1000 ));
-for (ConsumerRecord<String, String> record : records) {
-System.out.printf("收到消息:partition = %d,offset = %d, key
-= %s, value = %s%n", record.partition(),
-```
-##### 1 2 3 4 5 6 7
-
-
-#### 手动异步提交
-
-#### 在消息消费完后提交,不需要等到集群ack,直接执行之后的逻辑,可以设置一个回调方
-
-#### 法,供集群调用
-
-```
-record.offset(), record.key(), record.value());
-}
-//所有的消息已消费完
-if (records.count() > 0 ) {//有消息
-// 手动同步提交offset,当前线程会阻塞直到offset提交成功
-// 一般使用同步提交,因为提交之后一般也没有什么逻辑代码了
-consumer.commitSync();//=======阻塞=== 提交成功
-}
-}
-}
-```
-##### 8
-
-##### 9
-
-##### 10
-
-##### 11
-
-##### 12
-
-##### 13
-
-##### 14
-
-##### 15
-
-##### 16
-
-##### 17
-
-```
-while (true) {
-/*
-* poll() API 是拉取消息的⻓轮询
-*/
-ConsumerRecords<String, String> records =
-consumer.poll(Duration.ofMillis( 1000 ));
-for (ConsumerRecord<String, String> record : records) {
-System.out.printf("收到消息:partition = %d,offset = %d, key
-= %s, value = %s%n", record.partition(),
-record.offset(), record.key(), record.value());
-}
-//所有的消息已消费完
-if (records.count() > 0 ) {
-```
-```
-// 手动异步提交offset,当前线程提交offset不会阻塞,可以继续处理后面
-的程序逻辑
-consumer.commitAsync(new OffsetCommitCallback() {
-@Override
-public void onComplete(Map<TopicPartition,
-OffsetAndMetadata> offsets, Exception exception) {
-if (exception != null) {
-System.err.println("Commit failed for " + offsets);
-System.err.println("Commit failed exception: " +
-exception.getStackTrace());
-}
-```
-##### 1 2 3 4 5 6 7 8 9
-
-##### 10
-
-##### 11
-
-##### 12
-
-##### 13
-
-##### 14
-
-##### 15
-
-##### 16
-
-##### 17
-
-##### 18
-
-##### 19
-
-##### 20
-
-
-## 3.⻓轮询poll消息
-
-#### 默认情况下,消费者一次会poll500条消息。
-
-#### 代码中设置了⻓轮询的时间是 1000 毫秒
-
-#### 意味着:
-
-#### 如果一次poll到 500 条,就直接执行for循环
-
-#### 如果这一次没有poll到 500 条。且时间在 1 秒内,那么⻓轮询继续poll,要么到 500
-
-#### 条,要么到1s
-
-#### 如果多次poll都没达到 500 条,且 1 秒时间到了,那么直接执行for循环
-
-#### 如果两次poll的间隔超过30s,集群会认为该消费者的消费能力过弱,该消费者被踢出消
-
-#### 费组,触发rebalance机制,rebalance机制会造成性能开销。可以通过设置这个参数,
-
-#### 让一次poll的消息条数少一点
-
-##### }
-
-##### });
-
-##### }
-
-##### }
-
-##### }
-
-##### 21
-
-##### 22
-
-##### 23
-
-##### 24
-
-##### 25
-
-##### 26
-
-```
-//一次poll最大拉取消息的条数,可以根据消费速度的快慢来设置
-props.put(ConsumerConfig.MAX_POLL_RECORDS_CONFIG, 500 );
-```
-##### 1
-
-##### 2
-
-```
-while (true) {
-/*
-* poll() API 是拉取消息的⻓轮询
-*/
-ConsumerRecords<String, String> records =
-consumer.poll(Duration.ofMillis( 1000 ));
-for (ConsumerRecord<String, String> record : records) {
-System.out.printf("收到消息:partition = %d,offset = %d, key = %s,
-value = %s%n", record.partition(),
-record.offset(), record.key(), record.value());
-}
-```
-##### 1 2 3 4 5 6 7 8 9
-
-
-## 4.消费者的健康状态检查
-
-#### 消费者每隔1s向kafka集群发送心跳,集群发现如果有超过10s没有续约的消费者,将被踢出
-
-#### 消费组,触发该消费组的rebalance机制,将该分区交给消费组里的其他消费者进行消费。
-
-## 5.指定分区和偏移量、时间消费
-
-#### 指定分区消费
-
-#### 从头消费
-
-#### 指定offset消费
-
-#### 指定时间消费
-
-```
-//一次poll最大拉取消息的条数,可以根据消费速度的快慢来设置
-props.put(ConsumerConfig.MAX_POLL_RECORDS_CONFIG, 500 );
-//如果两次poll的时间如果超出了30s的时间间隔,kafka会认为其消费能力过弱,将其踢
-出消费组。将分区分配给其他消费者。-rebalance
-props.put(ConsumerConfig.MAX_POLL_INTERVAL_MS_CONFIG, 30 * 1000 );
-```
-##### 1
-
-##### 2
-
-##### 3
-
-##### 4
-
-```
-//consumer给broker发送心跳的间隔时间
-props.put(ConsumerConfig.HEARTBEAT_INTERVAL_MS_CONFIG, 1000 );
-//kafka如果超过 10 秒没有收到消费者的心跳,则会把消费者踢出消费组,进行
-rebalance,把分区分配给其他消费者。
-props.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, 10 * 1000 );
-```
-##### 1
-
-##### 2
-
-##### 3
-
-##### 4
-
-```
-1 consumer.assign(Arrays.asList(new TopicPartition(TOPIC_NAME, 0 )));
-```
-```
-consumer.assign(Arrays.asList(new TopicPartition(TOPIC_NAME, 0 )));
-consumer.seekToBeginning(Arrays.asList(new TopicPartition(TOPIC_NAME,
-0 )));
-```
-##### 1
-
-##### 2
-
-```
-consumer.assign(Arrays.asList(new TopicPartition(TOPIC_NAME, 0 )));
-consumer.seek(new TopicPartition(TOPIC_NAME, 0 ), 10 );
-```
-##### 1
-
-##### 2
-
-
-#### 根据时间,去所有的partition中确定该时间对应的offset,然后去所有的partition中找到该
-
-#### offset之后的消息开始消费。
-
-## 6.新消费组的消费offset规则
-
-#### 新消费组中的消费者在启动以后,默认会从当前分区的最后一条消息的offset+1开始消费(消
-
-#### 费新消息)。可以通过以下的设置,让新的消费者第一次从头开始消费。之后开始消费新消
-
-#### 息(最后消费的位置的偏移量+1)
-
-#### Latest:默认的,消费新消息
-
-#### earliest:第一次从头开始消费。之后开始消费新消息(最后消费的位置的偏移量+1)
-
-```
-List<PartitionInfo> topicPartitions =
-consumer.partitionsFor(TOPIC_NAME);
-//从 1 小时前开始消费
-long fetchDataTime = new Date().getTime() - 1000 * 60 * 60 ;
-Map<TopicPartition, Long> map = new HashMap<>();
-for (PartitionInfo par : topicPartitions) {
-map.put(new TopicPartition(TOPIC_NAME, par.partition()),
-fetchDataTime);
-}
-Map<TopicPartition, OffsetAndTimestamp> parMap =
-consumer.offsetsForTimes(map);
-for (Map.Entry<TopicPartition, OffsetAndTimestamp> entry :
-parMap.entrySet()) {
-TopicPartition key = entry.getKey();
-OffsetAndTimestamp value = entry.getValue();
-if (key == null || value == null) continue;
-Long offset = value.offset();
-System.out.println("partition-" + key.partition() +
-"|offset-" + offset);
-System.out.println();
-//根据消费里的timestamp确定offset
-if (value != null) {
-consumer.assign(Arrays.asList(key));
-consumer.seek(key, offset);
-}
-}
-```
-##### 1 2 3 4 5 6 7 8 9
-
-##### 10
-
-##### 11
-
-##### 12
-
-##### 13
-
-##### 14
-
-##### 15
-
-##### 16
-
-##### 17
-
-##### 18
-
-##### 19
-
-##### 20
-
-##### 21
-
-##### 22
-
-```
-1 props.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");
-```
-
-# 八、Springboot中使用Kafka
-
-## 1.引入依赖
-
-## 2.编写配置文件
-
-```
-<dependency>
-<groupId>org.springframework.kafka</groupId>
-<artifactId>spring-kafka</artifactId>
-</dependency>
-```
-##### 1
-
-##### 2
-
-##### 3
-
-##### 4
-
-```
-server:
-port: 8080
-```
-```
-spring:
-kafka:
-bootstrap-servers:
-172.16.253.38:9092,172.16.253.38:9093,172.16.253.38: 9094
-producer: # 生产者
-retries: 3 # 设置大于 0 的值,则客户端会将发送失败的记录重新发送
-batch-size: 16384
-buffer-memory: 33554432
-acks: 1
-# 指定消息key和消息体的编解码方式
-key-serializer:
-org.apache.kafka.common.serialization.StringSerializer
-value-serializer:
-org.apache.kafka.common.serialization.StringSerializer
-consumer:
-group-id: default-group
-enable-auto-commit: false
-auto-offset-reset: earliest
-key-deserializer:
-org.apache.kafka.common.serialization.StringDeserializer
-value-deserializer:
-org.apache.kafka.common.serialization.StringDeserializer
-max-poll-records: 500
-listener:
-```
-##### 1 2 3 4 5 6 7 8 9
-
-##### 10
-
-##### 11
-
-##### 12
-
-##### 13
-
-##### 14
-
-##### 15
-
-##### 16
-
-##### 17
-
-##### 18
-
-##### 19
-
-##### 20
-
-##### 21
-
-##### 22
-
-
-## 3.编写消息生产者
-
-```
-# 当每一条记录被消费者监听器(ListenerConsumer)处理之后提交
-# RECORD
-# 当每一批poll()的数据被消费者监听器(ListenerConsumer)处理之后提交
-# BATCH
-# 当每一批poll()的数据被消费者监听器(ListenerConsumer)处理之后,距离上
-次提交时间大于TIME时提交
-# TIME
-# 当每一批poll()的数据被消费者监听器(ListenerConsumer)处理之后,被处理
-record数量大于等于COUNT时提交
-# COUNT
-# TIME | COUNT 有一个条件满足时提交
-# COUNT_TIME
-# 当每一批poll()的数据被消费者监听器(ListenerConsumer)处理之后, 手动调
-用Acknowledgment.acknowledge()后提交
-# MANUAL
-# 手动调用Acknowledgment.acknowledge()后立即提交,一般使用这种
-# MANUAL_IMMEDIATE
-ack-mode: MANUAL_IMMEDIATE
-redis:
-host: 172.16.253.21
-```
-##### 23
-
-##### 24
-
-##### 25
-
-##### 26
-
-##### 27
-
-##### 28
-
-##### 29
-
-##### 30
-
-##### 31
-
-##### 32
-
-##### 33
-
-##### 34
-
-##### 35
-
-##### 36
-
-##### 37
-
-##### 38
-
-##### 39
-
-##### 40
-
-```
-package com.qf.kafka.spring.boot.demo.controller;
-```
-```
-import org.springframework.beans.factory.annotation.Autowired;
-import org.springframework.kafka.core.KafkaTemplate;
-import org.springframework.web.bind.annotation.RequestMapping;
-import org.springframework.web.bind.annotation.RestController;
-```
-```
-@RestController
-@RequestMapping("/msg")
-public class MyKafkaController {
-```
-```
-private final static String TOPIC_NAME = "my-replicated-topic";
-```
-```
-@Autowired
-private KafkaTemplate<String,String> kafkaTemplate;
-```
-##### 1 2 3 4 5 6 7 8 9
-
-##### 10
-
-##### 11
-
-##### 12
-
-##### 13
-
-##### 14
-
-##### 15
-
-##### 16
-
-
-## 4.编写消费者
-
-```
-@RequestMapping("/send")
-public String sendMessage(){
-```
-```
-kafkaTemplate.send(TOPIC_NAME, 0 ,"key","this is a message!");
-```
-```
-return "send success!";
-```
-##### }
-
-##### }
-
-##### 17
-
-##### 18
-
-##### 19
-
-##### 20
-
-##### 21
-
-##### 22
-
-##### 23
-
-##### 24
-
-##### 25
-
-##### 26
-
-##### 27
-
-##### 28
-
-##### 29
-
-##### 30
-
-```
-package com.qf.kafka.spring.boot.demo.consumer;
-```
-```
-import org.apache.kafka.clients.consumer.ConsumerRecord;
-import org.apache.kafka.clients.consumer.ConsumerRecords;
-import org.springframework.kafka.annotation.KafkaListener;
-import org.springframework.kafka.support.Acknowledgment;
-import org.springframework.stereotype.Component;
-```
-```
-@Component
-public class MyConsumer {
-```
-```
-@KafkaListener(topics = "my-replicated-topic",groupId = "MyGroup1")
-public void listenGroup(ConsumerRecord<String, String> record,
-Acknowledgment ack) {
-String value = record.value();
-System.out.println(value);
-System.out.println(record);
-//手动提交offset
-ack.acknowledge();
-}
-```
-##### }
-
-##### 1 2 3 4 5 6 7 8 9
-
-##### 10
-
-##### 11
-
-##### 12
-
-##### 13
-
-##### 14
-
-##### 15
-
-##### 16
-
-##### 17
-
-##### 18
-
-##### 19
-
-##### 20
-
-##### 21
-
-##### 22
-
-
-## 5.消费者中配置消费主题、分区和偏移量
-
-# 九、kafka集群中的controller、
-
-# rebalance、HW
-
-## 1.controller
-
-#### 集群中谁来充当controller
-
-#### 每个broker启动时会向zk创建一个临时序号节点,获得的序号最小的那个broker将会作为集
-
-#### 群中的controller,负责这么几件事:
-
-#### 当集群中有一个副本的leader挂掉,需要在集群中选举出一个新的leader,选举的规则是
-
-#### 从isr集合中最左边获得。
-
-#### 当集群中有broker新增或减少,controller会同步信息给其他broker
-
-#### 当集群中有分区新增或减少,controller会同步信息给其他broker
-
-## 2.rebalance机制
-
-```
-@KafkaListener(groupId = "testGroup", topicPartitions = {
-@TopicPartition(topic = "topic1", partitions = {"0", "1"}),
-@TopicPartition(topic = "topic2", partitions = "0",
-partitionOffsets = @PartitionOffset(partition = "1",
-initialOffset = "100"))
-},concurrency = "3")//concurrency就是同组下的消费者个数,就是并发消费数,建
-议小于等于分区总数
-public void listenGroupPro(ConsumerRecord<String, String> record,
-Acknowledgment ack) {
-String value = record.value();
-System.out.println(value);
-System.out.println(record);
-//手动提交offset
-ack.acknowledge();
-}
-```
-##### 1 2 3 4 5 6 7 8 9
-
-##### 10
-
-##### 11
-
-##### 12
-
-##### 13
-
-
-#### 前提:消费组中的消费者没有指明分区来消费
-
-#### 触发的条件:当消费组中的消费者和分区的关系发生变化的时候
-
-#### 分区分配的策略:在rebalance之前,分区怎么分配会有这么三种策略
-
-#### range:根据公示计算得到每个消费消费哪几个分区:前面的消费者是分区总数/消费
-
-#### 者数量+1,之后的消费者是分区总数/消费者数量
-
-#### 轮询:大家轮着来
-
-#### sticky:粘合策略,如果需要rebalance,会在之前已分配的基础上调整,不会改变之
-
-#### 前的分配情况。如果这个策略没有开,那么就要进行全部的重新分配。建议开启。
-
-## 3.HW和LEO
-
-#### LEO是某个副本最后消息的消息位置(log-end-offset)
-
-#### HW是已完成同步的位置。消息在写入broker时,且每个broker完成这条消息的同步后,hw
-
-#### 才会变化。在这之前消费者是消费不到这条消息的。在同步完成之后,HW更新之后,消费者
-
-#### 才能消费到这条消息,这样的目的是防止消息的丢失。
-
-# 十、Kafka中的优化问题
-
-## 1.如何防止消息丢失
-
-#### 生产者: 1 )使用同步发送 2 )把ack设成 1 或者all,并且设置同步的分区数>=2
-
-#### 消费者:把自动提交改成手动提交
-
-## 2.如何防止重复消费
-
-
-#### 在防止消息丢失的方案中,如果生产者发送完消息后,因为网络抖动,没有收到ack,但实际
-
-#### 上broker已经收到了。
-
-#### 此时生产者会进行重试,于是broker就会收到多条相同的消息,而造成消费者的重复消费。
-
-#### 怎么解决:
-
-#### 生产者关闭重试:会造成丢消息(不建议)
-
-#### 消费者解决非幂等性消费问题:
-
-#### 所谓的幂等性:多次访问的结果是一样的。对于rest的请求(get(幂等)、post(非幂
-
-#### 等)、put(幂等)、delete(幂等))
-
-#### 解决方案:
-
-#### 在数据库中创建联合主键,防止相同的主键 创建出多条记录
-
-#### 使用分布式锁,以业务id为锁。保证只有一条记录能够创建成功
-
-## 3.如何做到消息的顺序消费
-
-#### 生产者:保证消息按顺序消费,且消息不丢失——使用同步的发送,ack设置成非 0 的
-
-#### 值。
-
-#### 消费者:主题只能设置一个分区,消费组中只能有一个消费者
-
-#### kafka的顺序消费使用场景不多,因为牺牲掉了性能,但是比如rocketmq在这一块有专⻔的
-
-#### 功能已设计好。
-
-## 4.如何解决消息积压问题
-
-
-### 1 )消息积压问题的出现
-
-#### 消息的消费者的消费速度远赶不上生产者的生产消息的速度,导致kafka中有大量的数据没有
-
-#### 被消费。随着没有被消费的数据堆积越多,消费者寻址的性能会越来越差,最后导致整个
-
-#### kafka对外提供的服务的性能很差,从而造成其他服务也访问速度变慢,造成服务雪崩。
-
-### 2 )消息积压的解决方案
-
-#### 在这个消费者中,使用多线程,充分利用机器的性能进行消费消息。
-
-#### 通过业务的架构设计,提升业务层面消费的性能。
-
-#### 创建多个消费组,多个消费者,部署到其他机器上,一起消费,提高消费者的消费速度
-
-#### 创建一个消费者,该消费者在kafka另建一个主题,配上多个分区,多个分区再配上多个
-
-#### 消费者。该消费者将poll下来的消息,不进行消费,直接转发到新建的主题上。此时,新
-
-#### 的主题的多个分区的多个消费者就开始一起消费了。——不常用
-
-
-## 5.实现延时队列的效果
-
-### 1 )应用场景
-
-#### 订单创建后,超过 30 分钟没有支付,则需要取消订单,这种场景可以通过延时队列来实现
-
-### 2 )具体方案
-
-
-#### kafka中创建创建相应的主题
-
-#### 消费者消费该主题的消息(轮询)
-
-#### 消费者消费消息时判断消息的创建时间和当前时间是否超过 30 分钟(前提是订单没支
-
-#### 付)
-
-#### 如果是:去数据库中修改订单状态为已取消
-
-#### 如果否:记录当前消息的offset,并不再继续消费之后的消息。等待 1 分钟后,再次
-
-#### 向kafka拉取该offset及之后的消息,继续进行判断,以此反复。
-
-# 十一、Kafka-eagle监控平台
-
-## 1.搭建
-
-#### 去kafka-eagle官网下载压缩包
-
-#### http://download.kafka-eagle.org/
-
-#### 分配一台虚拟机
-
-#### 虚拟机中安装jdk
-
-#### 解压缩kafka-eagle的压缩包
-
-#### 给kafka-eagle配置环境变量
-
-```
-export KE_HOME=/usr/local/kafka-eagle
-export PATH=$PATH:$KE_HOME/bin
-```
-##### 1
-
-##### 2
-
-
-#### 千锋教育Java教研院 关注公众号:Java架构栈 获取更多资料
-
-#### 需要修改kafka-eagle内部的配置文件:vim system-config.properties
-
-#### 修改里面的zk的地址和mysql的地址
-
-#### 进入到bin中,通过命令来启动
-
-## 2.平台的使用
-
-```
-1 ./ke.sh start
-```
-

BIN
照片/image-20210913161137166.png


BIN
照片/image-20210913162419193.png


BIN
照片/image-20210913171740164.png


BIN
照片/image-20210913172708931.png


BIN
照片/image-20210914145455398.png


BIN
照片/image-20210914165406429.png


BIN
照片/image-20210914195022273.png


BIN
照片/image-20210914195035533.png


BIN
照片/image-20210914195129983.png


BIN
照片/image-20210917155442268.png


BIN
照片/image-20210917155502636.png


BIN
照片/image-20210917155701514.png