Kafka Shell 基本操作

1. 启动集群每个节点的进程

nohup kafka-server-start.sh \
/home/hadoop/apps/kafka_2.11-1.1.0/config/server.properties \
1>~/logs/kafka_std.log \
2>~/logs/kafka_err.log &

2. 创建 Topic

解释说明:
–create --> 创建 Topic 的选项
–zookeeper --> 指定 ZooKeeper 集群地址
–replication-factor --> Topic 的副本数
–partitions --> 分区个数
–topic --> Topic 名称

kafka-topics.sh \
--create \
--zookeeper hdp01:2181,hdp02:2181,hdp03:2181 \
--replication-factor 3 \
--partitions 10 \
--topic gldwolf

3. 查看已经创建的所有 Kafka Topic

kafka-topics.sh \
--list \
--zookeeper hdp01:2181,hdp02:2181,hdp03:2181

4. 查看某个指定的 Topic 的详细信息

kafka-topics.sh \
--zookeeper hdp01:2181,hdp02:2181,hdp03:2181 \
--describe \
--topic gldwolf

结果如下:
在这里插入图片描述
Topic:Topic 名称
Partition:Topic 的分区编号
Leader:负责处理消息的读和写,Leader 是从所有节点中随机选择的
Replicas:列出了所有的副本节点,不管节点是否在服务中
Isr:正在服务中的节点

5. 开启生产者模拟生成数据:

kafka-console-producer.sh \
--broker-list hdp01:9092,hdp02:9092,hdp03:9092 \
--topic gldwolf

6. 开启消费者模拟消费数据

kafka-console-consumer.sh \
--zookeeper hdp01:2181,hdp02:2181,hdp03:2181 \
--from-beginning \
--topic gldwolf

7. 查看某个 Topic 的某个 Partition 的偏移量的最大值和最小值

kafka-run-class.sh \
kafka.tools.GetOffsetShell \
--topic gldwolf \
--time -1 \
--broker-list hdp01:9092,hdp02:9092,hdp03:9092 \
-partitions 1

8. 增加 Topic 分区数

# 修改分区数为 20 
kafka-topics.sh \
--alter \
--zookeeper hdp01:2181,hdp02:2181,hdp03:2181 \
--topic gldwolf \
--partitions 20 # 修改副本个数为 2
kafka-topics.sh \
--alter \
--zookeeper hdp01:2181,hdp02:2181,hdp03:2181 \
--topic gldwolf \
--replication-factor 2

9. 删除 Topic

kafka-topics.sh \
--delete \
--zookeeper hdp01:2181,hdp02:2181,hdp03:2181 \
--topic gldwolf

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/557396.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Spark 简介

1. 什么是 Spark 官网:http://spark.apache.org Spark 是一个快速、通用、可扩展的大数据分析引擎。 Spark 是基于内存计算的大数据并行计算框架 1.1 Spark 的特点 快:与 Hadoop 的 MapReduce 相比,Spark 基于内存的运算要快 100 倍以上&a…

Linux环境下安装Mysql5.7

本文记录下我近期在Linux环境下安装Mysql5.7的实践经历。 服务器版本Mysql版本Centos 7.65.7.32 1. 下载Mysql 下载地址:https://downloads.mysql.com/archives/community/ 进入页面后选择你需要的版本进行下载,这里提供了2种格式:tar.gz和…

Redis 入门及实战

目录 1. Redis 基本概念 2. Redis 的优势 3. Redis 适用场景 4. Redis-3.2.6 安装(未整理)与测试 5. 使用 Redis 的 Java API 客户端——Jedis 6. 数据结构 6.1 String -- 字符串 6.1.1 String 使用概述 6.1.2 String 常用操作 6.1.3 String 使用案例 6.2 List -- 列…

HBase 简介

HBase 是一个通过大量廉价机器解决海量数据的调整存储和读取的分布式数据库解决方案 HBase 的特点: 高并发,易扩展,解决海量数据集的随机实时增删改查HBase 本质依然是 Key-Value 数据库,不支持 join 等复杂操作不支持复杂的事务…

Flink官网自学笔记

1. What is Apache Flink? Apache Flink 是一款用来进行分布式流数据和批数据处理的开源平台。Apache Flink 是一个对有界数据流和无界数据流进行有状态计算的框架和分布式处理引擎。Flink 被设计用于在所有常见的集群环境中运行,以内存中的速度和任意规模进行计算…

HBase Java API 代码开发

1. API 介绍 几个主要 HBase API 类和数据模型之间的对应关系: Java 类 HBase 数据模型 Admin 数据库(Database) HBaseConfiguration Table 表(Table) HTableDescriptor 列簇(Column Family&#…

HBase 原理

1. HBase 底层原理 1.1 系统架构 1.1.1 Client 职责 1. HBase 有两张特殊的表: .META.: 记录了用户所有表拆分出来的 Region 映射信息,.META. 可以有多个 Region -ROOT-(新版中已去掉这一层): 记录了 .META. 表的 Region 信息,-ROOT- 只有…

用IDEA debug按键功能

用IDEA debug按键功能 一、断点 断点键,是用户在所选行代码处标记的功能点,表示在debug时代码执行到此处暂停。 注:断点可设置多个 二、启动debug 在设置好断点后单击此功能键,启动debug功能。 三、中止任务 点击该功能键&a…

HBase 的表设计

1 ColumnFamily 设计 追求的原则是:在合理的范围内能尽量少的减少列簇就尽量减少列簇。 最优设计是:将所有相关性很强的 Key-Value 都放在同一个列簇下,这样既能做到查询效率最高,也能保持尽可能少的访问不同的磁盘文件。 以用…

shiro原理及其运行流程介绍

什么是shiro shiro是apache的一个开源框架,是一个权限管理的框架,实现 用户认证、用户授权。 spring中有spring security (原名Acegi),是一个权限框架,它和spring依赖过于紧密,没有shiro使用简单。 shiro不依赖于sp…

shiro中文api_Shiro

1 shiro Apache shiro 是一个 Java 安全框架。 功能:认证、授权、加密和会话管理功能 应用环境:JavaEE、JavaSE Subject 可看做成一个用户 SecurityManager 框架的核心API Reaim 域对象,用于取数据库中的数据,进行权限比对。…

Java Lambda 表达式讲解

Lambda 表达式 Lambda 表达式的基础语法 Java8 中引入了一个新的操作符:-> 该操作符称为箭头操作符或者 Lambda 操作符 Lambda 操作符将表达式拆分成两部分: 左侧:Lambda 表达式的参数列表右侧: Lambda 表达式的"函数体" --&…

方法引用、构造器引用和数组引用

方法引用 若 Lambda 体中的内有方法已经实现了,我们可以使用“方法引用”(可以理解为方法引用是 Lambda 表达式的另外一种表现形式) 语法格式 主要有以下三种语法格式: 对象::实例方法名 注意&#xff1…

JVM 学习一:JVM 的构架模型及生命周期

JVM 的架构模型 Java 编译器输入的指令流基本上是一种基于栈的指令集架构,另外一种指令集架构则是基于寄存器的指令集架构。 具体来说,这两种架构之间的区别: 基于栈式架构的特点: 设计和实现更简单,适用于资源受限…

JVM 学习二:类加载器子系统

1 类加载器子系统的作用 类加载器子系统负责从文件系统或者网络中加载 Class 文件,Class 文件在文件开关有特定的文件标识ClassLoader 只负责 Class 文件的加载,至于它是否可以运行,则由 Execution Engine(执行引擎)决…

JVM 学习三:类加载器

类加载器 1 类加载器的分类 JVM 支持两种类型的类加载器:引导类加载器(Bootstrap ClassLoader)和自定义类加载器(User-Defined ClassLoader) 从概念上来讲,自定义类加载器一般指的是程序中由开发人员自定…

JVM 学习四:类加载之双亲委派机制与沙箱安全机制

1 双亲委派机制 Java 虚拟机对 Class 文件的加载采用的是按需加载的方式,也就是说:当需要使用该类时才会将它的 Class 文件加载到内存生成 Class 对象,而且加载某个类的 Class 文件时,Java 虚拟机采用的是双亲委派模式&#xff0c…

数据结构之线性表:顺序线性表 Java 实现(底层基于数组)

代码实现 package top.gldwolf.java.datastructure.lineartable;/*** 顺序线性表* param <T> 存储的元素类型*/ public class LinearTable<T> {private static final int INITIAL_SIZE 20; // 线性表的初始容量private Object[] data null; // 真正存储数据的数…

Java8新特性:Stream介绍和总结

Java8新特性&#xff1a;Stream介绍和总结 什么是Stream 流&#xff08;Stream&#xff09;是数据渠道&#xff0c;用于操作数据源&#xff08;集合、数组等&#xff09;所生成的元素序列。 集合讲的是数据&#xff0c;流讲的是计算 注意&#xff1a; Stream自己不会存储元素…

数据结构之线性表:单链表

代码实现 package top.gldwolf.java.datastructure.linkedtable;/*** author: Gldwolf* email: ZengqiangZhaosina.com* date: 2020/4/15 12:39*//*** 线性表的链式存储结构** param <T> 存储的数据类型*/ public class LinkedTable<T> {private Node head new N…