渝水区城乡建设局网站前端需要掌握哪些知识

pingmian/2025/10/9 15:19:34/文章来源:
渝水区城乡建设局网站,前端需要掌握哪些知识,高端互联网推广,广州建设高端网站架构原理 一、高吞吐机制#xff1a;Batch打包、缓冲区、acks 1. Kafka Producer怎么把消息发送给Broker集群的#xff1f; 需要指定把消息发送到哪个topic去 首先需要选择一个topic的分区#xff0c;默认是轮询来负载均衡#xff0c;但是如果指定了一个分区key#x…架构原理 一、高吞吐机制Batch打包、缓冲区、acks 1. Kafka Producer怎么把消息发送给Broker集群的 需要指定把消息发送到哪个topic去 首先需要选择一个topic的分区默认是轮询来负载均衡但是如果指定了一个分区key那么根据这个key的hash值来分发到指定的分区这样可以让相同的key分发到同一个分区里去还可以自定义partitioner来实现分区策略 producer.send(msg); // 用类似这样的方式去发送消息就会把消息给你均匀的分布到各个分区上去 producer.send(key, msg); // 订单id或者是用户id他会根据这个key的hash值去分发到某个分区上去他可以保证相同的key会路由分发到同一个分区上去 知道要发送到哪个分区之后还得找到这个分区的leader副本所在的机器然后跟那个机器上的Broker通过Socket建立连接来进行通信发送Kafka自定义协议格式的请求过去把消息就带过去了 如果找到了partition的leader所在的broker之后就可以通过socket跟那台broker建立连接接着发送消息过去 Producer生产者客户端起码要知道两个元数据每个topic有几个分区每个分区的leader是在哪台broker上会自己从broker上拉取kafka集群的元数据缓存在自己client本地客户端上 kafka使用者的层面来考虑一下我如果要把数据写入kafka集群应该如何来做怎么把数据写入kafka集群以及他背后的一些原理还有使用过程中需要设置的一些参数到底应该怎么来弄 2. 用一张图告诉你Producer发送消息的内部实现原理 每次发送消息都必须先把数据封装成一个ProducerRecord对象里面包含了要发送的topic具体在哪个分区分区key消息内容timestamp时间戳然后这个对象交给序列化器变成自定义协议格式的数据 接着把数据交给partitioner分区器对这个数据选择合适的分区默认就轮询所有分区或者根据key来hash路由到某个分区这个topic的分区信息都是在客户端会有缓存的当然会提前跟broker去获取 接着这个数据会被发送到producer内部的一块缓冲区里 然后producer内部有一个Sender线程会从缓冲区里提取消息封装成一个一个的batch然后每个batch发送给分区的leader副本所在的broker 3. 基于Java API写一个Kafka Producer发送消息的代码示例 package com.zhss.demo.kafka;import java.util.Properties;import org.apache.kafka.clients.producer.Callback; import org.apache.kafka.clients.producer.KafkaProducer; import org.apache.kafka.clients.producer.ProducerRecord; import org.apache.kafka.clients.producer.RecordMetadata;public class ProducerDemo {public static void main(String[] args) throws Exception {Properties props new Properties();// 这里可以配置几台broker即可他会自动从broker去拉取元数据进行缓存props.put(bootstrap.servers, hadoop03:9092,hadoop04:9092,hadoop05:9092); // 这个就是负责把发送的key从字符串序列化为字节数组props.put(key.serializer, org.apache.kafka.common.serialization.StringSerializer);// 这个就是负责把你发送的实际的message从字符串序列化为字节数组props.put(value.serializer, org.apache.kafka.common.serialization.StringSerializer);props.put(acks, -1);props.put(retries, 3);props.put(batch.size, 323840);props.put(linger.ms, 10);props.put(buffer.memory, 33554432);props.put(max.block.ms, 3000);// 创建一个Producer实例线程资源跟各个broker建立socket连接资源KafkaProducerString, String producer new KafkaProducerString, String(props);ProducerRecordString, String record new ProducerRecord(test-topic, test-key, test-value);// 这是异步发送的模式producer.send(record, new Callback() {Overridepublic void onCompletion(RecordMetadata metadata, Exception exception) {if(exception null) {// 消息发送成功System.out.println(消息发送成功); } else {// 消息发送失败需要重新发送}}});Thread.sleep(10 * 1000); // 这是同步发送的模式 // producer.send(record).get(); // 你要一直等待人家后续一系列的步骤都做完发送消息之后// 有了消息的回应返回给你你这个方法才会退出来producer.close();}} 4. 发送消息给Broker时遇到的各种异常该如何处理 之前我们看到不管是异步还是同步都可能让你处理异常常见的异常如下 LeaderNotAvailableException这个就是如果某台机器挂了此时leader副本不可用会导致你写入失败要等待其他follower副本切换为leader副本之后才能继续写入此时可以重试发送即可 如果说你平时重启kafka的broker进程肯定会导致leader切换一定会导致你写入报错是LeaderNotAvailableException NotControllerException这个也是同理如果说Controller所在Broker挂了那么此时会有问题需要等待Controller重新选举此时也是一样就是重试即可 NetworkException网络异常重试即可 我们之前配置了一个参数retries他会自动重试的但是如果重试几次之后还是不行就会提供Exception给我们来处理了 5. 发送消息的缓冲区应该如何优化来提升发送的吞吐量 buffer.memory设置发送消息的缓冲区默认值是33554432就是32MB 如果发送消息出去的速度小于写入消息进去的速度就会导致缓冲区写满此时生产消息就会阻塞住所以说这里就应该多做一些压测尽可能保证说这块缓冲区不会被写满导致生产行为被阻塞住 compression.type默认是none不压缩但是也可以使用lz4压缩效率还是不错的压缩之后可以减小数据量提升吞吐量但是会加大producer端的cpu开销 6. 消息批量发送的核心参数batch.size是如何优化吞吐量 batch.size设置meigebatch的大小如果batch太小会导致频繁网络请求吞吐量下降如果batch太大会导致一条消息需要等待很久才能被发送出去而且会让内存缓冲区有很大压力过多数据缓冲在内存里 默认值是16384就是16kb也就是一个batch满了16kb就发送出去一般在实际生产环境这个batch的值可以增大一些来提升吞吐量可以自己压测一下 还有一个参数linger.ms这个值默认是0意思就是消息必须立即被发送但是这是不对的一般设置一个100毫秒之类的这样的话就是说这个消息被发送出去后进入一个batch如果100毫秒内这个batch满了16kb自然就会发送出去 但是如果100毫秒内batch没满那么也必须把消息发送出去了不能让消息的发送延迟时间太长也避免给内存造成过大的一个压力 7. 如何根据业务场景对消息大小以及请求超时进行合理的设置 max.request.size这个参数用来控制发送出去的消息的大小默认是1048576字节也就1mb这个一般太小了很多消息可能都会超过1mb的大小所以需要自己优化调整把他设置更大一些 你发送出去的一条大数据超大的JSON串超过1MB就不让你发了 request.timeout.ms这个就是说发送一个请求出去之后他有一个超时的时间限制默认是30秒如果30秒都收不到响应那么就会认为异常会抛出一个TimeoutException来让我们进行处理 8. 基于Kafka内核架构原理深入分析acks参数到底是干嘛的 acks参数其实是控制发送出去的消息的持久化机制的 如果acks0那么producer根本不管写入broker的消息到底成功没有发送一条消息出去立马就可以发送下一条消息这是吞吐量最高的方式但是可能消息都丢失了你也不知道的但是说实话你如果真是那种实时数据流分析的业务和场景就是仅仅分析一些数据报表丢几条数据影响不大的 会让你的发送吞吐量会提升很多你发送弄一个batch出不需要等待人家leader写成功直接就可以发送下一个batch了吞吐量很大的哪怕是偶尔丢一点点数据实时报表折线图饼图 acksall或者acks-1这个leader写入成功以后必须等待其他ISR中的副本都写入成功才可以返回响应说这条消息写入成功了此时你会收到一个回调通知 min.insync.replicas 2ISR里必须有2个副本一个leader和一个follower最最起码的一个不能只有一个leader存活连一个follower都没有了 acks -1每次写成功一定是leader和follower都成功才可以算做成功leader挂了follower上是一定有这条数据不会丢失 retries Integer.MAX_VALUE无限重试如果上述两个条件不满足写入一直失败就会无限次重试保证说数据必须成功的发送给两个副本如果做不到就不停的重试除非是面向金融级的场景面向企业大客户或者是广告计费跟钱的计算相关的场景下才会通过严格配置保证数据绝对不丢失 acks1只要leader写入成功就认为消息成功了默认给这个其实就比较合适的还是可能会导致数据丢失的如果刚写入leaderleader就挂了此时数据必然丢了其他的follower没收到数据副本变成leader 9. 针对瞬间异常的消息重试参数有哪些需要考虑的点 有的时候一些leader切换之类的问题需要进行重试设置retries即可而且还可以跟消息不丢失结合起来但是消息重试会导致重复发送的问题比如说网络抖动一下导致他以为没成功就重试了其实人家都成功了 所以消息重试导致的消费重复需要你在下游consumer做幂等性处理但是kafka已经支持了一次且仅一次的消息语义 另外一个消息重试是可能导致消息的乱序的因为可能排在你后面的消息都发送出去了你现在收到回调失败了才在重试此时消息就会乱序所以可以使用“max.in.flight.requests.per.connection”参数设置为1这样可以保证producer同一时间只能发送一条消息 两次重试的间隔默认是100毫秒用“retry.backoff.ms”来进行设置 一般来说某台broker重启导致的leader切换是最常见的异常所以尽可能把重试次数和间隔设置的可以cover住新leader切换过来 10. Kafka Producer高阶用法一自定义分区 public class HotDataPartitioner implements Partitioner {private Random random;Override public void configure(MapString, ? configs) { random new Random(); }Override public int partition(String topic, Object keyObj, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster) { String key (String)keyObj; ListPartitionInfo partitionInfoList cluster.availablePartitionsForTopic(topic); int partitionCount partitionInfoList.size(); int hotDataPartition partitionCount - 1; return !key.contains(“hot_data”) ? random.nextInt(partitionCount - 1) : hotDataPartition; }}props.put(“partitioner.class”, “com.zhss.HotDataPartitioner”);测试发送bin/kafka-run-class.sh kafka.tools.GetOffsetShell --broker-list localhost:9092 --topic test-topic11. Kafka Producer高阶用法二自定义序列化 12. Kafka Producer高阶用法三自定义拦截器 二、Kafka Consumer选举与Rebalance实现原理 1. 一张图画清Kafka基于Consumer Group的消费者组的模型 每个consumer都要属于一个consumer.group就是一个消费组topic的一个分区只会分配给一个消费组下的一个consumer来处理每个consumer可能会分配多个分区也有可能某个consumer没有分配到任何分区 分区内的数据是保证顺序性的 group.id “membership-consumer-group” 如果你希望实现一个广播的效果你的每台机器都要消费到所有的数据每台机器启动的时候group.id可以是一个随机生成的UUID也可以你只要让不同的机器的KafkaConsumer的group.id是不一样的 如果consumer group中某个消费者挂了此时会自动把分配给他的分区交给其他的消费者如果他又重启了那么又会把一些分区重新交还给他这个就是所谓的消费者rebalance的过程 2. 消费者offset的记录方式以及基于内部topic的提交模式 每个consumer内存里数据结构保存对每个topic的每个分区的消费offset定期会提交offset老版本是写入zk但是那样高并发请求zk是不合理的架构设计zk是做分布式系统的协调的轻量级的元数据存储不能负责高并发读写作为数据存储 所以后来就是提交offset发送给内部topic__consumer_offsets提交过去的时候key是group.idtopic分区号value就是当前offset的值每隔一段时间kafka内部会对这个topic进行compact 也就是每个group.idtopic分区号就保留最新的那条数据即可 而且因为这个__consumer_offsets可能会接收高并发的请求所以默认分区50个这样如果你的kafka部署了一个大的集群比如有50台机器就可以用50台机器来抗offset提交的请求压力就好很多 3. 基于Java API写一个Kafka Consumer消费消息的代码示例 String topicName “test-topic”; String groupId “test-group”;Properties props new Properties(); props.put(“bootstrap.servers”, “localhost:9092”); props.put(“group.id”, “groupId”); props.put(“enable.auto.commit”, “true”); props.put(“auto.commit.ineterval.ms”, “1000”); // 每次重启都是从最早的offset开始读取不是接着上一次 props.put(“auto.offset.reset”, “earliest”); props.put(“key.deserializer”, “org.apache.kafka.common.serialization.StringDeserializer”); props.put(“value.deserializer”, “org.apache.kafka.common.serialization.SttringDeserializer”);KafkaConsumerString, String consumer new KafkaConsumerString, String(props); consumer.subscribe(Arrays.asList(topicName));try { while(true) { ConsumerRecordsString, String records consumer.poll(1000); // 超时时间 for(ConsumerRecordString, String record : records) { System.out.println(record.offset() “, ” record.key() “, ” record.value()); } } } catch(Exception e) {}4. Kafka感知消费者故障是通过哪三个参数来实现的 heartbeat.interval.msconsumer心跳时间必须得保持心跳才能知道consumer是否故障了然后如果故障之后就会通过心跳下发rebalance的指令给其他的consumer通知他们进行rebalance的操作 session.timeout.mskafka多长时间感知不到一个consumer就认为他故障了默认是10秒 max.poll.interval.ms如果在两次poll操作之间超过了这个时间那么就会认为这个consume处理能力太弱了会被踢出消费组分区分配给别人去消费一遍来说结合你自己的业务处理的性能来设置就可以了 5. 对消息进行消费时有哪几个参数需要注意以及设置呢 fetch.max.bytes获取一条消息最大的字节数一般建议设置大一些 max.poll.records一次poll返回消息的最大条数默认是500条 connection.max.idle.msconsumer跟broker的socket连接如果空闲超过了一定的时间此时就会自动回收连接但是下次消费就要重新建立socket连接这个建议设置为-1不要去回收 6. 消费者offset相关的参数设置会对运行产生什么样的影响 auto.offset.reset这个参数的意思是如果下次重启发现要消费的offset不在分区的范围内就会重头开始消费但是如果正常情况下会接着上次的offset继续消费的 enable.auto.commit这个就是开启自动提交位移 7. Group Coordinator是什么以及主要负责什么 每个consumer group都会选择一个broker作为自己的coordinator他是负责监控这个消费组里的各个消费者的心跳以及判断是否宕机然后开启rebalance的那么这个如何选择呢 就是根据group.id来进行选择他有内部的一个选择机制会给你挑选一个对应的Broker总会把你的各个消费组均匀分配给各个Broker作为coordinator来进行管理的 他负责的事情只要就是rebalance说白了你的consumer group中的每个consumer刚刚启动就会跟选举出来的这个consumer group对应的coordinator所在的broker进行通信然后由coordinator分配分区给你的这个consumer来进行消费 coordinator会尽可能均匀的分配分区给各个consumer来消费 8. 为消费者选择Coordinator的算法是如何实现的 首先对groupId进行hash接着对__consumer_offsets的分区数量取模默认是50可以通过offsets.topic.num.partitions来设置找到你的这个consumer group的offset要提交到__consumer_offsets的哪个分区 比如说groupId“membership-consumer-group” - hash值数字- 对50取模 - 就知道这个consumer group下的所有的消费者提交offset的时候是往哪个分区去提交offset大家可以找到__consumer_offsets的一个分区 __consumer_offset的分区的副本数量默认来说1只有一个leader 然后对这个分区找到对应的leader所在的broker这个broker就是这个consumer group的coordinator了接着就会维护一个Socket连接跟这个Broker进行通信 9. Coordinator和Consume Leader如何协作制定分区方案 每个consumer都发送JoinGroup请求到Coordinator然后Coordinator从一个consumer group中选择一个consumer作为leader把consumer group情况发送给这个leader接着这个leader会负责制定分区方案通过SyncGroup发给Coordinator 接着Coordinator就把分区方案下发给各个consumer他们会从指定的分区的leader broker开始进行socket连接以及消费消息 10. rebalance的三种策略分别有哪些优劣势 这里有三种rebalance的策略range、round-robin、sticky 0~8 order-topic-0 order-topic-1 order-topic-2 range策略就是按照partiton的序号范围比如partitioin02给一个consumerpartition35给一个consumerpartition6~8给一个consumer默认就是这个策略 round-robin策略就是轮询分配比如partiton0、3、6给一个consumerpartition1、4、7给一个consumerpartition2、5、8给一个consumer 但是上述的问题就在于说可能在rebalance的时候会导致分区被频繁的重新分配比如说挂了一个consumer然后就会导致partition04分配给第一个consumerpartition58分配给第二个consumer 这样的话原本是第二个consumer消费的partition3~4就给了第一个consumer实际上来说未必就很好 最新的一个sticky策略就是说尽可能保证在rebalance的时候让原本属于这个consumer的分区还是属于他们然后把多余的分区再均匀分配过去这样尽可能维持原来的分区分配的策略 consumer10~2 6~7 consumer23~5 8 11. Consumer内部单线程处理一切事务的核心设计思想 其实就是在一个while循环里不停的去调用poll()方法其实是我们自己的一个线程就是我们自己的这个线程就是唯一的KafkaConsumer的工作线程新版本的kafka api简化减少了线程数量 Consumer自己内部就一个后台线程定时发送心跳给broker但是其实负责进行拉取消息、缓存消息、在内存里更新offset、每隔一段时间提交offset、执行rebalance这些任务的就一个线程其实就是我们调用Consumer.poll()方法的那个线程 就一个线程调用进去会负责把所有的事情都干了 为什么叫做poll呢因为就是你可以监听N多个Topic的消息此时会跟集群里很多Kafka Broker维护一个Socket连接然后每一次线程调用poll()就会监听多个socket是否有消息传递过来 可能一个consumer会消费很多个partition每个partition其实都是leader可能在不同的broker上那么如果consumer要拉取多个partition的数据就需要跟多个broker进行通信维护socket 每个socket就会跟一个broker进行通信 每个Consumer内部会维护多个Socket负责跟多个Broker进行通信我们就一个工作线程每次调用poll()的时候他其实会监听多个socket跟broker的通信是否有新的数据可以去拉取 12. 消费过程中的各种offset之间的关系是什么 上一次提交offset当前offset还未提交高水位offsetLEO 内存里记录这么几个东西上一次提交offset当前消费到的offset你不断的在消费消息不停的在拉取新的消息不停的更新当前消费的offsetHW offset你拉取的时候是只能看到HW他前面的数据 LEOleader partition已经更新到了一个offset了但是HW在前面你只能拉取到HW的数据HW后面的数据意味着不是所有的follower都写入进去了所以不能去读取的 13. 自动提交offset的语义以及导致消息丢失和重复消费的问题 默认是自动提交 auto.commit.inetrval.ms5000默认是5秒提交一次 如果你提交了消费到的offset之后人家kafka broker就可以感知到了比如你消费到了offset 56987下次你的consumer再次重启的时候就会自动从kafka broker感知到说自己上一次消费到的offset 56987 这次重启之后就继续从offset 56987这个位置继续往后去消费就可以了 他的语义是一旦消息给你poll到了之后这些消息就认为处理完了后续就可以提交了所以这里有两种问题 第一消息丢失如果你刚poll到消息然后还没来得及处理结果人家已经提交你的offset了此时你如果consumer宕机再次重启数据丢失因为上一次消费的那批数据其实你没处理结果人家认为你处理了 poll到了一批数据offset 65510~65532人家刚好就是到了时间提交了offsetoffset 65532这个地方已经提交给了kafka broker接着你准备对这批数据进行消费但是不巧的是你刚要消费就直接宕机了 其实你消费到的数据是没处理的但是消费offset已经提交给kafka了下次你重启的时候offset 65533这个位置开始消费的之前的一批数据就丢失了 第二重复消费如果你poll到消息都处理完毕了此时还没来得及提交offset你的consumer就宕机了再次重启会重新消费到这一批消息再次处理一遍那么就是有消息重复消费的问题 poll到了一批数据offset 65510~65532你很快的处理完了都写入数据库了结果还没来得及提交offset就宕机了上一次提交的offset 65509重启他会再次让你消费offset 65510~65532一样的数据再次重复消费了一遍写入数据库 重启kafka consumer修改了他的代码 14. 如何实现Consumer Group的状态机流转机制 刚开始Consumer Group状态是Empty 接着如果部分consumer发送了JoinGroup请求会进入PreparingRebalance的状态等待一段时间其他成员加入这个时间现在默认就是max.poll.interval.ms来指定的所以这个时间间隔一般可以稍微大一点 接着如果所有成员都加入组了就会进入AwaitingSync状态这个时候就不能允许任何一个consumer提交offset了因为马上要rebalance了进行重新分配了这个时候就会选择一个leader consumer由他来制定分区方案 然后leader consumer制定好了分区方案SyncGroup请求发送给coordinator他再下发方案给所有的consumer成员此时进入stable状态都可以正常基于poll来消费了 所以如果说在stable状态下有consumer进入组或者离开崩溃了那么都会重新进入PreparingRebalance状态重新看看当前组里有谁如果剩下的组员都在那么就进入AwaitingSync状态 leader consumer重新制定方案然后再下发 15. 最新设计的rebalance分代机制可以有什么作用 大家设想一个场景在rebalance的时候可能你本来消费了partition3的数据结果有些数据消费了还没提交offset结果此时rebalance把partition3分配给了另外一个cnosumer了此时你如果提交partition3的数据的offset能行吗 必然不行所以每次rebalance会触发一次consumer group generation分代每次分代会加1然后你提交上一个分代的offset是不行的那个partiton可能已经不属于你了大家全部按照新的partiton分配方案重新消费数据 consumer group generation 1 consumer group generation 2 16. Consumer端的自定义反序列化器是什么 17. 自行指定每个Consumer要消费哪些分区有用吗 List partitions consumer.partitionsFor(“order-topic”); new TopicPartition(partitionInfo.topic(), partitionInfo.partition()); consumer.assign(partitions); //指定每个consumer要消费哪些分区你就不是依靠consumer的自动的分区分配方案来做了 18. 老版本的high-level consumer的实现原理是什么 producer和consumer api原理都是新版本的kafka api 老版本的kafka consumer api分成两种high-level和low-level都是基于zk实现的只不过前者有consumer group的概念后者没有 high-level的api比如说consumer启动就是在zk里写一个临时节点但是如果自己宕机了那么zk临时节点就没了别人就会发现然后就会开启rebalance 然后在消费的时候可以指定多个线程取消费一个topic比如说你和这个consumer分配到了5个分区那么你可以指定最多5个线程每个线程消费一个分区的数据但是新版本的就一个线程负责消费所有分区 在提交offset就是向zk写入对某个分区现在消费到了哪个offset了默认60秒才提交一次 新版本的api就不基于zk来实现了呢zk主要是做轻量级的分布式协调元数据存储并不适合高并发大量连接的场景cnosumer可能有成百上千个成千上万个zk来做的连接的压力高并发的读写 broker内部基于zk来进行协调 19. 老版本的low-level consumer的实现原理是什么 老版本的low-level消费者是可以自己控制offset的实现很底层的一些控制但是需要自己去提交offset还要自己找到某个分区对应的leader broker跟他进行连接获取消息如果leader变化了也得自己处理非常的麻烦 比如说storm-kafka这个插件在storm消费kafka数据的时候就是使用的low-level api自己获取offset提交写入zk中自己指定的znode中但是在未来基本上老版本的会越来越少使用 三、Kafka的时间轮延时调度机制与架构原理总结 1. Producer的缓冲区内部数据结构是什么样子的 producer会创建一个accumulator缓冲区他里面是一个HashMap数据结构每个分区都会对应一个batch队列因为你打包成出来的batch那必须是这个batch都是发往同一个分区的这样才能发送一个batch到这个分区的leader broker { “order-topic-0” - [batch1, batch2], “order-topic-1” - [batch3] } batch.size 每个batch包含三个东西一个是compressor这是负责追加写入batch的组件第二个是batch缓冲区就是写入数据的地方第三个是thunks就是每个消息都有一个回调Callback匿名内部类的对象对应batch里每个消息的回调函数 每次写入一条数据都对应一个Callback回调函数的 2. 消息缓冲区满的时候是阻塞住还是抛出异常 max.block.ms其实就是说如果写缓冲区满了此时是阻塞住一段时间然后什么时候抛异常默认是60000也就是60秒 3. 负责IO请求的Sender线程是如何基于缓冲区发送数据的 Sender线程会不停的轮询缓冲区内的HashMap看batch是否满了或者是看linger.ms时间是不是到了然后就得发送数据去发送的时候会根据各个batch的目标leader broker来进行分组 因为可能不同的batch是对应不同的分区但是不同的分区的Leader是在一个broker上的Node, List接着会进一步封装为Node, Request每个broker一次就是一个请求但是这里可能包含很多个batch接着就是将分组好的batch发送给leader broker并且处理response来反过来调用每个batch的callback函数 发送出去的Request会被放入InFlighRequests里面去保存MapNodeId, Deque这里就代表了发送出去的请求但是还没接收到响应的 4. 同时可以接受有几个发送到Broker的请求没收到响应 MapNodeId, Deque 给这个broker发送了哪些请求过去了 max.in.flight.requests.per.connection5 这个参数默认值是5默认情况下每个Broker最多只能有5个请求是发送出去但是还没接收到响应的所以这种情况下是有可能导致顺序错乱的大家一定要搞清楚这一点先发送的请求可能后续要重发 5. Kafka自定义的基于TCP的二进制协议深入探秘一番一 kafka自定义了一组二进制的协议现在一共是包含了43种协议类型每种协议都有对应的请求和响应Request和Response其实说白了如果大家现在看咱们的那个自研分布式存储系统的课里面用到了gRPC 你大概可以认为就是定义了43种接口每个接口就是一种协议然后每个接口都有自己对应的Request和Response就这个意思 每个协议的Request都有相同的请求头RequestHeader也有不同的请求体RequestBody请求头包含了api_key、api_version、correlation_id、client_id这里的api_key就类似于“PRODUCE”、“FETCH”你可以认为是接口的名字吧 “PRODUCE”就是发送消息的接口“FETCH”就是拉取消息的接口就这个意思 api_version就是这个API的版本号 correlation_id就是类似客户端生成的一次请求的唯一标志位唯一标识一次请求 client_id就是客户端的id 每个协议的Response也有相同的响应头就是一个correlation_id就是对某个请求的响应 6. Kafka自定义的基于TCP的二进制协议深入探秘一番二 比如说发送消息就是ProduceRequest和ProduceResponse代表“PRODUCE”这个接口的请求和响应api_key0其实就是“PRODUCE”接口的代表 他的RequestBody包含了transactional_idackstimeouttopic_datatopicdatapartitionrecord_setacks就是客户端自己指定的acks参数这个会指示leader和follower副本的写入方式timeout就是超时时间默认就是30秒request.timeout.ms 然后就是要写入哪个topic哪个分区以及对应数据集合里面是多个batch ProduceResponseResponseBody包含了responsestopicpartition_responsespartitionerror_codebase_offsetlog_append_timelog_start_offsetthrottle_time_ms简单来说就是当前响应是对哪个topic写入的响应 包含了每个topic的各个分区的响应每个partition的写入响应包括error_code错误码base_offset是消息集合的起始offsetlog_append_time是写入broker端的时间log_start_offset是分区的起始offset 其实各种接口大体上来说就是如此所以现在大家就知道了协议就是一种规定你发送过来的请求是什么格式的他可能有请求头还有请求体分别包含哪些字段按什么格式放数据响应也是一样的 然后大家就可以按一样的协议来发送请求和接收响应 7. 盘点一下在Broker内部有哪些不同场景下会有延时任务 比如说acks-1那么必须等待leader和follower都写完才能返回响应而且有一个超时时间默认是30秒也就是request.timeout.ms那么在写入一条数据到leader磁盘之后就必须有一个延时任务到期时间是30秒 延时任务会被放到DelayedOperationPurgatory延时操作管理器中 这个延时任务如果因为所有follower都写入副本到本地磁盘了那么就会被自动触发苏醒那么就可以返回响应结果给客户端了否则的话这个延时任务自己指定了最多是30秒到期如果到了超时时间都没等到那么就直接超时返回异常了 还有一种是延时拉取任务也就是说follower往leader拉取消息的时候如果发现是空的那么此时会创建一个延时拉取任务然后延时时间到了之后就会再次读取一次消息如果过程中leader写入了消息那么也会自动执行这个拉取任务 8. Kafka的时间轮延时调度机制一O(1)时间复杂度 Kafka内部有很多延时任务没有基于JDK Timer来实现那个插入和删除任务的时间复杂度是O(nlogn)而是基于了自己写的时间轮来实现的时间复杂度是O(1)其实Netty、ZooKeeper、Quartz很多中间件都会实现时间轮 延时任务是很多很多的大量的发送消息以及拉取消息都会涉及到延时任务任务数量很多如果基于传统的JDK Timer把大量的延时任务频繁的插入和删除时间复杂度是O(nlogn)性能比较低的 时间轮的机制延时任务插入和删除O(1) 简单来说一个时间轮TimerWheel就是一个数组实现的存放定时任务的环形队列数组每个元素都是一个定时任务列表TimerTaskList这个TimerTaskList是一个环形双向链表链表里的每个元素都是定时任务TimerTask 时间轮是有很多个时间格的一个时间格就是时间轮的时间跨度tickMswheelSize就是时间格的数量时间轮的总时间跨度就是tickMs * wheelSizeinterval然后还有一个表盘指针currentTime就是时间轮当前所处的时间 currentTime指向的时间格就是到期需要执行里面的定时任务 比如说tickMs 1mswheelSize 20那么时间轮跨度inetrval就是20ms刚开始currentTime 0这个时候如果有一个延时2ms之后执行的任务插入进来就会基于数组的index直接定位到时间轮底层数组的第三个元素 因为tickMs 1ms所以第一个元素代表的是0ms第二个元素代表的是1ms的地方第三个元素代表的就是2ms的地方直接基于数组来定位就是O(1)是吧然后到数组之后把这个任务插入其中的双向链表这个时间复杂度也是O(1) 所以这个插入定时任务的时间复杂度就是O(1) 然后currentTime会随着时间不断的推移1ms之后会指向第二个时间格2ms之后会指向第三个时间格这个时候就会执行第三个时间格里刚才插入进来要在2ms之后执行的那个任务了 这个时候如果插入进来一个8ms之后要执行的任务那么就会放到第11个时间格上去相比于currentTime刚好是8ms之后对吧就是个意思然后如果是插入一个19ms之后执行的呢那就会放在第二个时间格 每个插入进来的任务他都会依据当前的currentTime来放最后正好要让currentTime转动这么多时间之后正好可以执行那个时间格里的任务 9. Kafka的时间轮延时调度机制二多层级时间轮 接着上一讲的内容那如果这个时候来一个350毫秒之后执行的定时任务呢已经超出当前这个时间轮的范围了那么就放到上层时间轮上层时间轮的tickMs就是下层时间轮的interval也就是20ms wheelSize是固定的都是20那么上层时间轮的inetrval周期就是400ms如果再上一层的时间轮他的tickMs是400ms那么interval周期就是8000ms也就是8s再上一层时间轮的tickMs是8sinterval就是160s也就是好几分钟了以此类推即可 反正有很多层级的时间轮一个时间轮不够就往上开辟一个新的时间轮出来每个时间轮的tickMs是下级时间轮的interval而且currentTime就跟时钟的指针一样是不停的转动的你只要根据定时周期把他放入对应的轮子即可 每个轮子插入的时候根据currentTime放到对应时间之后的时间格即可 比如定时350ms后执行的任务就可以放到interval位400ms的时间轮内currentTime自然会转动到那个时间格来执行他 10. Kafka的时间轮延时调度机制三时间轮层级的下滑 接着上一讲的内容那如果这个时候来一个350毫秒之后执行的定时任务呢已经超出当前这个时间轮的范围了那么就放到上层时间轮上层时间轮的tickMs就是下层时间轮的interval也就是20ms wheelSize是固定的都是20那么上层时间轮的inetrval周期就是400ms如果再上一层的时间轮他的tickMs是400ms那么interval周期就是8000ms也就是8s再上一层时间轮的tickMs是8sinterval就是160s也就是好几分钟了以此类推即可 反正有很多层级的时间轮一个时间轮不够就往上开辟一个新的时间轮出来每个时间轮的tickMs是下级时间轮的interval而且currentTime就跟时钟的指针一样是不停的转动的你只要根据定时周期把他放入对应的轮子即可 每个轮子插入的时候根据currentTime放到对应时间之后的时间格即可 比如定时350ms后执行的任务就可以放到interval位400ms的时间轮内currentTime自然会转动到那个时间格来执行他 11. Kafka的时间轮延时调度机制四基于DelayQueue推动 基于数组和双向链表来O(1)时间度可以插入任务 但是推进时间轮怎么做呢搞一个线程不停的空循环判断是否进入下一个时间格吗那样很浪费CPU资源所以采取的是DelayQueue 每个时间轮里的TimerTaskList作为这个时间格的任务列表都会插入DelayQueue中设置一个延时出队时间DelayQueue会自动把过期时间最短的排在队头然后专门有一个线程来从DelayQueue里获取到期任务列表 某个时间格对应的TimerTaskList到期之后就会被线程获取到这种方式就可以实现时间轮推进的效果推进时间轮基于DelayQueue时间复杂度也是O(1)因为只要从队头获取即可

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/pingmian/88889.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

wordpress快速仿站网站添加ico

组件注册 定义好的组件需要注册才能被使用。 注册方式有两种 全局注册 局部注册 全局注册 .component() 方法,让组件在当前 Vue 应用中全局可用。 在 main.ts 中 import ./assets/main.cssimport { createApp } from vue import { createPinia } from pinia i…

李鸿星电子商务网站建设国外不织布网站做的教具

问题分析 在使用静态方法的时候,某些情况下,需要使用类似自动注入的Bean来实现某些业务逻辑。 一般的非静态方法,可以很容易的通过在方法所在的类中Autowired自动将依赖的Bean注入到本类中,并操作。 静态方法在使用同样的操作流…

四川内江网站建设专业营销型网站

捕获验证错误代码 //try //{ // // 调试写数据库 //} //catch (DbEntityValidationException dbEx) //{ //}转载于:https://www.cnblogs.com/caojinqin/p/4561000.html

医疗网站建设 飞沐WordPress信息收集

通过研读华为数据之道,了解到华为作为一家非数字原生企业,其业务涵盖研发、营销、制造、供应、采购、服务等,业务相当复杂。因此华为在开展数据治理过程中明确了由谁来对数据负责,特别是对数据质量负责,明确了数据质量的衡量或度量指标,并成立了数据管理部,确定其职能定…

网站建设 佛山单页网站的优点

鼠标前盘属于办公用品套装,一般会一起销售,但是也不排除分开销售,无论是哪种方式键盘鼠标在生产销售时都需要携带对应产品质量合格证,对产品进行简单的说明,更能保障消费者的权益。那么如何制作产品质量合格证呢&#…

网站建设公司的政策风险PHP开源网站开发系统

MYSQL主从复制配置指引 1.前期准备 部署完主备数据库,初始化主备库表结构和数据。 2. 主库配置修改 修改主库配置文件etc/my.cnf,新增以下配置: #服务器 id,需唯一 server-id 1 #二进制文件存放路径 log-bin mysql-bin …

网站推广公司电话集群网站开发

import { BaseTabs, BaseUploadImage, BaseHighSearch, BaseTable } from /common/components; import BaseTables from /common/components/BaseTables;

域名续费做网站网站建设华威公司怎么样

操作系统:ubuntu22.04 OpenCV版本:OpenCV4.9 IDE:Visual Studio Code 编程语言:C11 算法描述 找到两个平面之间的透视变换。 cv::findHomography 是 OpenCV 库中用于计算两幅图像之间单应性矩阵(Homography Matrix)的…

做网站一般用什么服务器怀化电视台网站

爱折腾的我最近在用sublime text 3 写python,但是原生态的编译模式不支持交互。在网上找了许多资料,想要可以交互运行python,大都需要sublimeREPL这个插件,我不想用这个插件。在多次摸索过后找到了如下解决方案,在此记…

上海网站建设好处个人网页设计ps

生活中你的家有客厅(Public),有你的卧室(Private) 客厅所有来的客人都可以进去,但是你的卧室是私有的,也就是说只有你能进去 但是呢,你也可以允许你的好闺蜜好基友进去。 在程序里,有些私有属性 也想让类外特殊的一…

新公司名称核准在哪个网站百度推广app怎么收费

使用gitee托管平台搭配hexo工具搭建个人博客 烨然的个人博客 第一部分 HEXO安装(win10安装过程) 1.安装git 安装后配置环境变量 C:\Program Files\Git\bin C:\Program Files\Git\libexec\git-core 2.安装Node.js 快速下载链接 安装后配置环境变量 环境变量写入C:\Program Files…

官方网站下载cadqq刷赞网站推广全网

Linux权限 文章目录 Linux权限一.文件权限1.快速掌握修改权限的方法(修改文件权限属性)2.对比权限的有无,以及具体的体现3.修改权限的第二套方法(修改用户角色)4.文件类型(Linux下一切皆文件) 二…

做推广网站有什么莱芜雪野湖介绍

我最后写了一个小函数,使用scipy.ndimage.zoom升级图像,但是为了缩小它,它首先将它升级为原始形状的倍数,然后通过块平均缩小.它接受scipy.zoom的任何其他关键字参数(order和prefilter)我仍在寻找使用可用软件包的更清洁的解决方案.def zoomArray(inArray, finalShape, sameSum…

广西网站建公家网站模板

Shell脚本是一种用来自动化执行一系列命令的文本文件。它可以包含一系列的Shell命令和控制结构,用于实现特定的功能或任务。 以下是一些使用Shell脚本的常见情况: 自动化任务:可以使用Shell脚本编写自动化任务,例如备份文件、定时执行命令等。 系统管理:通过Shell脚本可以…

网站发布之后上传文件路径变了wordpress修改登录密码

ChatGPT无限次数:点击直达 html ChatGPT的黑科技让你的论文脱颖而出 导言 近年来,随着人工智能技术的飞速发展,ChatGPT作为一款优秀的文本生成模型正逐渐走进人们的视野。本文将介绍如何利用ChatGPT的黑科技让你的论文在激烈的学术竞争中脱颖而出。 …

怎样利用云盘做电影网站明星网页制作模板

AWK/SED awk awk是一个强大的文本分析工具,相对于grep的查找,sed的编辑,awk在其对数据分析并生成报告时,显得尤为强大。简单来说awk就是把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分再进行…

义乌婚介网站建设义乌企业网站

一、说明 数据太多了。数据湖和数据仓库;广阔的像素牧场和充满文字的海洋。找到正确的数据就像大海捞针一样!如果你喜欢开源机器学习库 FiftyOne,矢量搜索引擎通过将复杂数据(图像的原始像素值、文本文档中的字符)转换为称为嵌入矢…

网站建设于朦胧wordpress常见问题

前言 提到MySQL的事务,我相信对MySQL有了解的同学都能聊上几句,无论是面试求职,还是日常开发,MySQL的事务都跟我们息息相关。 而事务的ACID(即原子性Atomicity、一致性Consistency、隔离性Isolation、持久性Durabili…

怎么做可上传图片的网站手机网站底部导航

连接Linux命令 finaXshell 工具好用: 链接:https://pan.baidu.com/s/13yyOhi7GzcZNTxXseGO_fA 提取码:n4t6 上次Linux 文件工具: fileZilla ,这个网上去下载 转载于:https://www.cnblogs.com/duende99/p/11479182.html