https://downloads.apache.org/kafka/3.5.1/kafka_2.13-3.5.1.tgz
 d
kafka依赖与zookeeper
kakka配置文件
broker.id=1    #每个 broker 在集群中的唯一标识,正整数。每个节点不一样
listeners=PLAINTEXT://192.168.74.70:9092 ##监听地址
num.network.threads=3  # 定义用于网络处理的线程数。
num.io.threads=8  #定义用于I/O操作的线程数。
socket.send.buffer.bytes=102400  #设置用于发送数据的套接字缓冲区大小。
socket.receive.buffer.bytes=102400  # 设置用于接收数据的套接字缓冲区大小。
socket.request.max.bytes=104857600 #指定单个请求的最大字节数。
log.dirs=/data/kafka #kakfa 用于保存数据的目录,所有的消息都会存储在该目录当中
num.partitions=3#设置创建新的 topic 默认分区数量,一般为集群的节点数
num.recovery.threads.per.data.dir=1  #
offsets.topic.replication.factor=1  #设置偏移量主题的复制因子为1。
transaction.state.log.replication.factor=1 #事务主题的复制因子(设置更高以确保可用性)。 内部主题创建将失败,直到群集大小满足此复制因素要求
transaction.state.log.min.isr=1#覆盖事务主题的min.insync.replicas配置
log.retention.hours=168#设置 kafka 中消息保留时间,
log.retention.check.interval.ms=300000
zookeeper.connect=192.168.74.70:2181,192.168.74.71:2181,192.168.74.72:2181 #设置Zookeeper服务器的连接地址。
zookeeper.connection.timeout.ms=18000  #设置与Zookeeper建立连接的超时时间。
group.initial.rebalance.delay.ms=0 #设置初始重新平衡延迟的毫秒数。
启动
 /apps/kafka_2.13-3.5.1/bin/kafka-server-start.sh -daemon /apps/kafka_2.13-3.5.1/config/server.properties

创建topic
/apps/kafka_2.13-3.5.1/bin/kafka-topics.sh --create --topic magedu --bootstrap-server 192.168.74.70:9092 --partitions 3 --replication-factor 2

 查看topic
 root@ubuntu20:~# /apps/kafka_2.13-3.5.1/bin/kafka-topics.sh --bootstrap-server 192.168.74.70:9092 --list
 magedu
停止kafka
 /apps/kafka_2.13-3.5.1/bin/kafka-server-stop.sh
验证topic
 状态说明: 有三个分区分别为0、1、2,
 PartitionCount: 3 代表分片3个
 ReplicationFactor: 2 代表副本2个
 分区0的leader是1
Replicas: 代表副本存放的brokerid
 Isr: 1,3 代表活者的是1,3
root@ubuntu20:~# /apps/kafka_2.13-3.5.1/bin/kafka-topics.sh  --describe   --bootstrap-server  192.168.74.70:9092Topic: magedu	TopicId: H4nV6WulTU-y_S4J2pHfOA	PartitionCount: 3	ReplicationFactor: 2	Configs: Topic: magedu	Partition: 0	Leader: 1	Replicas: 1,3	Isr: 1,3Topic: magedu	Partition: 1	Leader: 1	Replicas: 2,1	Isr: 1Topic: magedu	Partition: 2	Leader: 3	Replicas: 3,2	Isr: 3
上面的Isr中没有2,可以知道2节点缺少,查看发现2节点的kafka没有启动
 启动后正常
Topic: magedu	TopicId: H4nV6WulTU-y_S4J2pHfOA	PartitionCount: 3	ReplicationFactor: 2	Configs: Topic: magedu	Partition: 0	Leader: 1	Replicas: 1,3	Isr: 1,3Topic: magedu	Partition: 1	Leader: 1	Replicas: 2,1	Isr: 1,2Topic: magedu	Partition: 2	Leader: 3	Replicas: 3,2	Isr: 3,2指定topic查看
 /apps/kafka_2.13-3.5.1/bin/kafka-topics.sh --describe --bootstrap-server 192.168.74.70:9092 --topic luo
root@ubuntu20:~# ll /data/kafka/
生产数据
 /apps/kafka_2.13-3.5.1/bin/kafka-console-producer.sh --broker-list 192.168.74.71:9092,192.168.74.70:9092 --topic magedu
 
消费数据
 /apps/kafka_2.13-3.5.1/bin/kafka-console-consumer.sh --topic magedu --bootstrap-server 192.168.74.71:9092,192.168.74.70:9092 --from-beginning
 –from-beginning 从头消费
通过软件查看数据
 创建连接
 
 添加kafka地址配置
 
修改为字符串类型
 
可以查看数据

总结
一个消息被消费一次
 一个消息被消费多次 -》 数据同步,分发
 大多次通常都是消费一次
kafka通常以集群运行,实现高可用
 topic(主题):在逻辑上对record(记录、日志)进行分组保存
kafka分区:为了实现数据的高可用,比如将分区0的数据分散到不同的kafka节点,每一个分区有一个broker作为leader和一个broker作为follower
顺序读写
 顺序读取
监控:
 对端口
 curl url 是否200
activemq
端口和rabbitmq 一样
 安装
 wget https://mirrors.tuna.tsinghua.edu.cn/apache/activemq/5.18.2/apache-activemq-5.18.2-bin.tar.gz
 cp apache-activemq-5.18.2-bin.tar.gz /apps/
 cd /apps/
 tar -xf apache-activemq-5.18.2-bin.tar.gz
 ln -s apache-activemq-5.18.2 activemq
 vi activemq.xml #不用修改
 cd …
 ./bin/linux-x86-64/activemq start #启动
netstat -antp|grep 8161 修改地址为0.0.0.0
 /usr/local/activemq/conf# vi jetty.xml
 
 访问
 http://120.77.146.92:8161/admin/
 