论坛类网站建设校园网站建设的需求分析
论坛类网站建设,校园网站建设的需求分析,搞钱,现在什么类型网站没有人做1、Kafka介绍
Kafka是一款开源的分布式消息系统#xff0c;最初由LinkedIn公司开发并开源。它被设计用于处理海量的实时数据流#xff0c;可以支持高吞吐量和低延迟的数据传输。
Kafka的设计主要目标是提供一个持久化的、高吞吐量的、可扩展的、分布式发布/订阅消息系统最初由LinkedIn公司开发并开源。它被设计用于处理海量的实时数据流可以支持高吞吐量和低延迟的数据传输。
Kafka的设计主要目标是提供一个持久化的、高吞吐量的、可扩展的、分布式发布/订阅消息系统以解决实时数据处理的需求。它基于发布/订阅模型通过将消息发布到主题Topic并让订阅者订阅相关主题实现了消息的生产者和消费者之间的解耦。
Kafka的架构和设计思想非常灵活主要由以下几个核心组件组成
Producer生产者: 负责将消息发布到Kafka集群中的指定主题。
Consumer消费者: 订阅并消费特定主题的消息。
Topic主题: 消息的类别或者主题分类消息被发布到特定的主题消费者可以订阅感兴趣的主题。
Broker代理: Kafka集群中的服务器节点负责消息的存储和转发。
Partition分区: 每个主题可以分为多个分区每个分区都是有序且持久化的消息记录队列。
Producer API生产者API和Consumer API消费者API: 提供了丰富的编程接口方便开发者在应用程序中集成Kafka。
Kafka的特点包括
高性能Kafka可以支持每秒数十万条消息的高吞吐量处理。
可扩展性Kafka的持久化消息存储和分区机制可以方便地进行水平扩展。
容错性Kafka具备良好的容错机制即使在某个节点故障的情况下仍然可以保证消息的可靠传输。
消息保留Kafka可以根据配置保留消息的时间或大小限制。
多语言支持Kafka提供了多种编程语言的客户端方便开发者使用不同语言来集成和使用Kafka。
Kafka广泛应用于各种领域特别是大数据处理、实时流处理和日志收集等场景。
2、Flink介绍
FlinkApache Flink是一种开源的流处理和批处理框架它提供了可靠、高性能、可伸缩的大数据处理能力。Flink最初由德国柏林工业大学Berlin TU的一个研究小组开发并于2014年成为Apache软件基金会的顶级项目。
Flink的设计目标是实时流处理和批处理的无缝融合它提供了统一的数据处理模型使得开发人员可以方便地编写和运行具有低延迟和高吞吐量需求的大规模数据处理应用。
Flink的核心概念是流Stream和转换Transformation。应用程序通过定义数据流DataStream来描述输入数据和计算过程并且可以应用各种转换操作如过滤、转换、合并等对数据流进行操作和处理。Flink提供了丰富的转换函数和算子可以轻松地实现各种复杂的数据处理逻辑。
Flink具有以下特点
低延迟和高吞吐量Flink采用了基于内存的流式计算模型能够实现毫秒级的实时响应。
Exactly-Once语义Flink可以确保数据处理的精确一次性即数据不会丢失也不会重复处理。
可容错性Flink通过在集群中保存数据的一致性检查点Checkpoint来提供故障恢复和容错处理能力。
状态管理Flink能够在处理过程中维护和管理状态这对于处理窗口操作和流-流连接等场景非常重要。
可伸缩性Flink可以方便地进行水平扩展支持集群模式和分布式部署。
支持大规模数据处理Flink可以处理海量数据适用于大数据和实时流处理等场景。
Flink在实时流处理、批处理、连续查询、机器学习和图分析等领域得到了广泛应用。它提供了易于使用的API和丰富的生态系统可以与主流的大数据存储和计算平台如Hadoop、Kafka、Cassandra等进行无缝集成为用户提供了强大的数据处理能力和灵活性。
3、Flink订阅Kafka消息实战代码
import java.util.Properties// 配置Kafka的属性
val properties: Properties new Properties
// 设置服务
properties.setProperty(bootstrap.servers, bigdata_server1:9092,bigdata_server2:9092,bigdata_server3:9092)
// 设置消费者组
properties.setProperty(group.id, test_group)
// kafka反序列化消息是在消费端
properties.setProperty(key.deserializer, org.apache.kafka.common.serialization.StringDeserializer)
// 由于网络传输过来的是byte[]只有反序列化后才能得到生产者发送的真实的消息内容。
// 属性key.deserializer和value.deserializer就是key和value指定的反序列化方式
properties.setProperty(value.deserializer, org.apache.kafka.common.serialization.StringDeserializer)
// 指定了消费者在读取一个没有偏移量的分区或者偏移量无效的情况下改如何处理。
properties.setProperty(auto.offset.reset, latest)import main.flink.com.bg.Config.Config
import org.apache.flink.shaded.jackson2.com.fasterxml.jackson.databind.node.ObjectNode
import org.apache.flink.streaming.api.datastream.DataStream
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment
import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer
import org.apache.flink.streaming.util.serialization.JSONKeyValueDeserializationSchemaval env: StreamExecutionEnvironment // Flink执行环境
val topic : String // 话题// 创建一个消费者读取指定topic话题的消息
val consumer new FlinkKafkaConsumer(topic, // Kafka话题new JSONKeyValueDeserializationSchema(true),Config.getKafkaProperties() // Kafka配置类型
)// 将Kafka消费者添加到输入源
val stream env.addSource(consumer) // 返回DataStream[ObjectNode]类型
// 打印并执行消息
stream.print()
env.execute(flink kafka demo)
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/88064.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!