淘宝网站可以做百度快照吗深圳市制作网站
web/
2025/9/30 7:49:38/
文章来源:
淘宝网站可以做百度快照吗,深圳市制作网站,招聘网站怎么做seo,汕头网站制作设计目录 Part.01 关于HDP Part.02 核心组件原理 Part.03 资源规划 Part.04 基础环境配置 Part.05 Yum源配置 Part.06 安装OracleJDK Part.07 安装MySQL Part.08 部署Ambari集群 Part.09 安装OpenLDAP Part.10 创建集群 Part.11 安装Kerberos Part.12 安装HDFS Part.13 安装Ranger …目录 Part.01 关于HDP Part.02 核心组件原理 Part.03 资源规划 Part.04 基础环境配置 Part.05 Yum源配置 Part.06 安装OracleJDK Part.07 安装MySQL Part.08 部署Ambari集群 Part.09 安装OpenLDAP Part.10 创建集群 Part.11 安装Kerberos Part.12 安装HDFS Part.13 安装Ranger Part.14 安装YARNMR Part.15 安装HIVE Part.16 安装HBase Part.17 安装Spark2 Part.18 安装Flink Part.19 安装Kafka Part.20 安装Flume
十九、安装Kafka
1.安装kafka
选择kafka进行安装 选择hdp03-05作为kafka的broker Log directories:/data01/kafka-logs
2.安装kafka manager
下载链接 https://gitcode.net/mirrors/yahoo/kafka-manager/-/archive/master/kafka-manager-master.tar.gz 在具有sbt编译环境的服务器需要外网环境上对kafka-manager进行编译
unzip kafka-manager-2.0.0.2.zip -d /usr/local/修改配置文件/usr/local/kafka-manager-2.0.0.2/conf/application.conf 修改zookeeper连接地址
kafka-manager.zkhostshdp01.hdp.com:2181,hdp02.hdp.com:2181,hdp03.hdp.com:2181启动kafka-manager
cd /usr/local/kafka-manager-2.0.0.2/bin/
nohup bin/kafka-manager /dev/null 21 访问页面http://hdp01.hdp.com:9000 创建kafka集群 Cluster Namehdp315自定义名称 Cluster Zookeeper Hostshdp01.hdp.com:2181,hdp02.hdp02.com:2181,hdp03.hdp.com:2181
3.启用kerberos配置确认
(1)ZooKeeper开启kerberos认证
ZooKeeper账号信息
klist -ket /etc/security/keytabs/zk.service.keytabjaas认证信息 /usr/hdp/3.1.5.0-152/zookeeper/conf/zookeeper_jaas.conf /usr/hdp/3.1.5.0-152/zookeeper/conf/zookeeper_client_jaas.conf com.sun.security.auth.module.Krb5LoginModule这个是类名,是kerberos对JAAS中的LoginModule的实现;required表示必须进行校验;其他几个是kerberos相关参数;后面会将该配置文件地址配置到jvm参数,其中的信息会被初始化到LoginContext上下文对象中。另外注意格式以及末尾的;分号。 开启sasl/kerberos认证/usr/hdp/3.1.5.0-152/zookeeper/conf/zoo.cfg
(2)Kafka账号信息
Ambari自动创建的kafka账号信息如下
klist -kte /etc/security/keytabs/kafka.service.keytab(3)Kafka服务端配置
jaas认证信息/usr/hdp/3.1.5.0-152/kafka/config/kafka_jaas.conf KafkaServerKafka服务端 KafkaClientKafka客户端 ClientZooKeeper客户端 Kerberos认证有两种方式即利用票证缓存和指定keytab。 要使用存储在票证缓存中的Kerberos票证
sasl.jaas.configcom.sun.security.auth.module.Krb5LoginModule required useTicketCachetrue;要使用keytab
sasl.jaas.configcom.sun.security.auth.module.Krb5LoginModule required useKeyTabtrue keyTab/etc/security/keytabs/alice.keytab principalaliceEXAMPLE.COM;开启sasl/kerberos认证/usr/hdp/3.1.5.0-152/kafka/config/server.properties 核心配置如下
advertised.listenersSASL_PLAINTEXT://hdp03.hdp.com:6667
listenersSASL_PLAINTEXT://hdp03.hdp.com:6667
sasl.enabled.mechanismsGSSAPI
sasl.kerberos.service.namekafka
sasl.mechanism.inter.broker.protocolGSSAPI
security.inter.broker.protocolSASL_PLAINTEXT(4)Kafka客户端配置
jaas认证信息/usr/hdp/3.1.5.0-152/kafka/config/kafka_client_jaas.conf 开启sasl/kerberos认证新建文件/root/client.properties
security.protocolSASL_PLAINTEXT
sasl.kerberos.service.namekafka
sasl.mechanismGSSAPI4.Controller/Broker确认
Broker在启动时会尝试去ZooKeeper中创建/controller节点。Kafka当前选举控制器的规则是第一个成功创建/controller节点的Broker会被指定为控制器。同样也会在zookeeper的/brokers/ids下创建一个临时znode。当broker宕机或主动关闭后该broker与ZooKeeper的会话结束这个znode会被自动删除。 zookeeper中还有一个与控制器有关的/controller_epoch持久节点节点中存放的是一个整型的controller_epoch值初始值为1。controller_epoch用于记录控制器发生变更的次数即记录当前的控制器是第几代控制器也可以称为“控制器的纪元”。 在kafka集群中首先启动hdp03节点此时controller选举为hdp03且broker下也只有hdp03并且可以看到相关的详细信息。
ls /controller
get /controllerls /brokers/ids
get /brokers/ids/1001之后在kafka集群中增加节点hdp04此时可以看到controller仍是hdp03但broker下已经有hdp04节点。
ls /controller
get /controllerls /brokers/ids
get /brokers/ids/10025.其他配置确认
(1)权限控制
Kafka本身自带有一个授权的类kafka.security.auth.SimpleAclAuthorizer可在server.properties配置分为Acl和Ranger两种方式。 Acl控制
authorizer.class.namekafka.security.auth.SimpleAclAuthorizerRanger控制
authorizer.class.nameorg.apache.ranger.authorization.kafka.authorizer.RangerKafkaAuthorizer当添加权限控制后会在zk中创建2个节点 节点1存储ACL信息节点kafka-acl 节点2存储ACL变更信息节点kafka-acl-changes
(2)listeners/advertised.listeners
内网发布地址用listeners对外网发布地址时用advertised.listeners
6.常用指令
创建topic
./kafka-topics.sh --create --zookeeper hdp01.hdp.com:2181,hdp02.hdp.com:2181,hdp03.hdp.com:2181 --replication-factor 3 --partitions 3 --topic test-topicpartitions指定topic分区数控制topic将分片成多少个log。可以显示指定如果不指定则会使用broker(server.properties)中的num.partitions配置的数量 虽然增加分区数可以提供kafka集群的吞吐量、但是过多的分区数或者或是单台服务器上的分区数过多会增加不可用及延迟的风险。因为多的分区数意味着需要打开更多的文件句柄、增加点到点的延时、增加客户端的内存消耗分区数也限制了consumer的并行度即限制了并行consumer消息的线程数不能大于分区数分区数也限制了producer发送消息是指定的分区。如创建topic时分区设置为1producer发送消息时通过自定义的分区方法指定分区为2或以上的数都会出错的这种情况可以通过alter –partitions 来增加分区数。 replication-factor指定topic每个分区的副本数,控制消息保存在几个broker(服务器)上一般情况下等于broker的个数。如果没有在创建时显示指定或通过API向一个不存在的topic生产消息时会使用broker(server.properties)中的default.replication.factor配置的数量。 查看所有topic列表
./kafka-topics.sh --zookeeper hdp01.hdp.com:2181,hdp02.hdp.com:2181,hdp03.hdp.com:2181 --list查看指定topic信息
./kafka-topics.sh --zookeeper hdp01.hdp.com:2181,hdp02.hdp.com:2181,hdp03.hdp.com:2181 --describe --topic test-topic控制台向topic生产数据
./kafka-console-producer.sh --broker-list hdp03.hdp.com:6667,hdp04.hdp.com:6667,hdp05.hdp.com:6667 --topic test-topic控制台消费topic的数据
./kafka-console-consumer.sh --zookeeper hdp01.hdp.com:2181,hdp02.hdp.com:2181,hdp03.hdp.com:2181 --topic test-topic --from-beginning增加topic分区数
./kafka-topics.sh --zookeeper hdp01.hdp.com:2181,hdp02.hdp.com:2181,hdp03.hdp.com:2181 --alter --topic test-topic --partitions 10删除topic
./kafka-topics.sh --delete --zookeeper hdp01.hdp.com:2181,hdp02.hdp.com:2181,hdp03.hdp.com:2181 --topic test-topic只会删除zookeeper中的元数据消息文件须手动删除 在zookeeper中以kafka登录后删除对应的文件
kinit -kt /etc/security/keytabs/kafka.service.keytab kafka/hdp03.hdp.comHDP315.COM
/usr/hdp/3.1.5.0-152/zookeeper/bin/zkCli.sh -server hdp01:2181,hdp02:2181,hdp03:2181
rmr /admin/delete_topics/test-topic
rmr /brokers/topics/test-topic查看topic消费进度
./kafka-run-class.sh kafka.tools.ConsumerOffsetChecker --group group1
显示出consumer group的offset情况必须参数为--group不指定--topic默认为所有topic查看topic某分区偏移量最大小值
./kafka-run-class.sh kafka.tools.GetOffsetShell --topic test-topic --time -1 --broker-list hdp03.hdp.com:6667,hdp04.hdp.com:6667,hdp05.hdp.com:6667 --partitions 0time为-1时表示最大值time为-2时表示最小值 列出所有topic的用户组列表
./kafka-consumer-groups.sh --bootstrap-server hdp03.hdp.com:6667,hdp04.hdp.com:6667,hdp05.hdp.com:6667 --list7.实验发布订阅
以hdp03作为producerhdp04作为consumer 【hdp03】上执行启动生产者并输入随机字符
kinit -kt /etc/security/keytabs/kafka.service.keytab kafka/hdp03.hdp.comHDP315.COM
./kafka-console-producer.sh --broker-list hdp03.hdp.com:6667,hdp04.hdp.com:6667,hdp05.hdp.com:6667 --topic test-topic --producer.config /root/producer.properties【hdp04】上执行启动消费者观察hdp03上输入字符后在hdp04上显示的内容
kinit -kt /etc/security/keytabs/kafka.service.keytab kafka/hdp03.hdp.comHDP315.COM
./kafka-console-producer.sh --broker-list
./kafka-console-consumer.sh --bootstrap-server hdp03.hdp.com:6667 --topic test-topic --consumer.config /root/consumer.properties
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/84339.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!