网站开发培训周末班网站模仿算侵权吗

news/2025/10/2 23:54:57/文章来源:
网站开发培训周末班,网站模仿算侵权吗,装修平台自己做网站有几个,龙岩建网站文章目录一、环境分布1. 版本声明2. 依赖2. case测试2. case2测试一、环境分布 1. 版本声明 linux服务器软件版本jdk1.8kafkakafka_2.13-2.4.0注#xff1a;建议版本和应用依赖的客户端版本依赖保持一致#xff0c;如果需要更高版本#xff0c;可以尝试 但是有一点#x… 文章目录一、环境分布1. 版本声明2. 依赖2. case测试2. case2测试一、环境分布 1. 版本声明 linux服务器软件版本jdk1.8kafkakafka_2.13-2.4.0注建议版本和应用依赖的客户端版本依赖保持一致如果需要更高版本可以尝试 但是有一点小伙伴们要记住linux服务器的kafka版本向下兼容但是kafka的客户端版本不向下兼容这一点很重要 2. 依赖 !-- kafka连接 --dependencygroupIdorg.apache.kafka/groupIdartifactIdkafka-clients/artifactIdversion2.4.0/version/dependencydependencygroupIdorg.apache.kafka/groupIdartifactIdkafka_2.13/artifactIdversion2.4.0/version/dependency2. case测试 package com.sinosoft.a;import kafka.consumer.ConsumerConfig; import kafka.producer.ProducerConfig;import java.util.Arrays; import java.util.Properties;import org.apache.kafka.clients.consumer.ConsumerConfig; import org.apache.kafka.clients.consumer.ConsumerRecord; import org.apache.kafka.clients.consumer.ConsumerRecords; import org.apache.kafka.clients.consumer.KafkaConsumer; import org.apache.kafka.clients.producer.KafkaProducer; import org.apache.kafka.clients.producer.Producer; import org.apache.kafka.clients.producer.ProducerConfig; import org.apache.kafka.clients.producer.ProducerRecord;public class KafkaDemo {public static void main(String[] args) throws InterruptedException {// 生产者示例providerDemo();// 消费者示例consumerDemo();}/*** 生产者示例*/public static void providerDemo() {Properties properties new Properties();/*** kafka的服务地址*/properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, 192.168.521.1314:9092); // properties.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, 192.168.521.1314:9092,192.168.17.137:9092);/*** 在考虑完成请求之前生产者要求leader收到的确认数量。这可以控制发送记录的持久性。允许以下设置* acks 0生产者将不会等待来自服务器的任何确认。该记录将立即添加到套接字缓冲区并视为已发送。在这种情况下无法保证服务器已收到记录并且retries配置将不会生效因为客户端通常不会知道任何故障。* acks 1这意味着leader会将记录写入其本地日志但无需等待所有follower的完全确认即可做出回应。在这种情况下如果leader在确认记录后立即失败但在关注者复制之前则记录将丢失。* acks all这意味着leader将等待完整的同步副本集以确认记录。这保证了只要至少一个同步副本仍然存活记录就不会丢失。这是最强有力的保证。这相当于acks -1设置*/properties.put(ProducerConfig.ACKS_CONFIG, all);/*** 当从broker接收到的是临时可恢复的异常时生产者会向broker重发消息但是不能无限制重发如果重发次数达到限制值生产者将不会重试并返回错误。* 通过retries属性设置。默认情况下生产者会在重试后等待100ms可以通过 retries.backoff.ms属性进行修改*/properties.put(ProducerConfig.RETRIES_CONFIG, 0);/*** 当有多条消息要被发送到同一分区时生产者会把他们放到同一批里。kafka通过批次的概念来 提高吞吐量但是也会在增加延迟。* 以下配置当缓存数量达到16kb就会触发网络请求发送消息*/properties.put(ProducerConfig.BATCH_SIZE_CONFIG, 16384);/*** 每条消息在缓存中的最长时间单位ms如果超过这个时间就会忽略batch.size的限制由客户端立即将消息发送出去*/properties.put(ProducerConfig.LINGER_MS_CONFIG, 50);/*** Kafka的客户端发送数据到服务器不是来一条就发一条而是经过缓冲的也就是说通过KafkaProducer发送出去的消息都是先进入到客户端本地的内存缓冲里然后把很多消息收集成一个一个的Batch再发送到Broker上去的这样性能才可能高。* buffer.memory的本质就是用来约束KafkaProducer能够使用的内存缓冲的大小的默认值32MB。* 如果buffer.memory设置的太小可能导致的问题是消息快速的写入内存缓冲里但Sender线程来不及把Request发送到Kafka服务器会造成内存缓冲很快就被写满。而一旦被写满就会阻塞用户线程不让继续往Kafka写消息了。* 所以“buffer.memory”参数需要结合实际业务情况压测需要测算在生产环境中用户线程会以每秒多少消息的频率来写入内存缓冲。经过压测调试出来一个合理值。*/properties.put(ProducerConfig.BUFFER_MEMORY_CONFIG, 33554432);/*** key的序列化方式*/properties.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, org.apache.kafka.common.serialization.StringSerializer);/*** value序列化方式*/properties.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, org.apache.kafka.common.serialization.StringSerializer);ProducerString, String producer null;try {producer new KafkaProducerString, String(properties); // for (int i 0; i 100; i) { // String msg ------Message i; // producer.send(new ProducerRecordString, String(mytest, msg)); // System.out.println(Sent: msg); // }String msg ------Message hello world!;// mytest 为topicproducer.send(new ProducerRecordString, String(mytest, msg));System.out.println(Sent: msg);} catch (Exception e) {e.printStackTrace();} finally {producer.close();}}/*** 消费者示例* throws InterruptedException*/public static void consumerDemo() throws InterruptedException {Properties props new Properties();props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, 192.168.521.1314:9092); // props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, 192.168.17.136:9092,192.168.17.137:9092);// 每个消费者分配独立的组号props.put(ConsumerConfig.GROUP_ID_CONFIG, test1);// 如果value合法则自动提交偏移量props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, true);// 设置自动更新被消费消息的偏移量的时间间隔props.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, 5000);// 设置会话响应的时间超过这个时间kafka可以选择放弃消费或者消费下一条消息props.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, 30000);// 设置服务返回的最大数据量这不是绝对最大值如果提取的第一个非空分区中的第一条消息大于此值则仍将返回该消息以确保使用者使用。此处设置5MBprops.put(ConsumerConfig.FETCH_MAX_BYTES_CONFIG, 5242880);// 设置服务返回的每个分区的最大数据量此大小必须至少与服务器允许的最大消息大小fetch.max.bytes一样大否则生产者有可能发送大于消费者可以获取的消息。此处设置5MBprops.put(ConsumerConfig.MAX_PARTITION_FETCH_BYTES_CONFIG, 5242880);/*** earliest当各分区下有已提交的offset时从提交的offset开始消费无提交的offset时从头开始消费* latest当各分区下有已提交的offset时从提交的offset开始消费无提交的offset时消费新产生的该分区下的数据* nonetopic各分区都存在已提交的offset时从offset后开始消费只要有一个分区不存在已提交的offset则抛出异常*/props.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, earliest);props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, org.apache.kafka.common.serialization.StringDeserializer);props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, org.apache.kafka.common.serialization.StringDeserializer);KafkaConsumerString, String consumer new KafkaConsumerString, String(props);// mytest 为topicconsumer.subscribe(Arrays.asList(mytest));while (true) {ConsumerRecordsString, String records consumer.poll(100);for (ConsumerRecordString, String record : records){System.out.printf(------------------offset %d, key %s, value %s,record.offset(), record.key(), record.value());System.out.println();}/*** 手动提交偏移量* 保证同一个consumer group中下一次读取不论进行了rebalance时既不会重复消费消息也不会遗漏消息。* 防止consumer莫名挂掉后下次进行数据fetch时不能从上次读到的数据开始读而导致Consumer消费的数据丢失*/consumer.commitSync();Thread.sleep(2000);}}}2. case2测试 package com.sinosoft.b;import java.util.Arrays; import java.util.Properties;import org.apache.kafka.clients.consumer.ConsumerRecord; import org.apache.kafka.clients.consumer.ConsumerRecords; import org.apache.kafka.clients.consumer.KafkaConsumer;public class kafkaConsumerTest {public static void main(String[] args) {Properties properties new Properties();properties.put(bootstrap.servers, 192.168.521.1314:9092); // 指向kafka集群的IP地址properties.put(group.id, group-1); // Consumer分组IDproperties.put(enable.auto.commit, true);properties.put(auto.commit.interval.ms, 1000); /* 自动确认offset的时间间隔 */properties.put(auto.offset.reset, earliest);properties.put(session.timeout.ms, 30000);properties.put(max.poll.records, 100);// max.poll.records条数据需要在在session.timeout.ms这个时间内处理完properties.put(fetch.min.bytes, 1);//server发送到消费端的最小数据若是不满足这个数值则会等待直到满足指定大小。默认为1表示立即接收。properties.put(fetch.wait.max.ms, 1000);properties.put(key.deserializer, org.apache.kafka.common.serialization.StringDeserializer); // 反序列化properties.put(value.deserializer, org.apache.kafka.common.serialization.StringDeserializer); // 反序列化KafkaConsumerString, String kafkaConsumer new KafkaConsumer(properties);kafkaConsumer.subscribe(Arrays.asList(xuhaitao)); // 设置消费的主题while (true) {ConsumerRecordsString, String records kafkaConsumer.poll(100); // 调用poll方法来轮循Kafka集群的消息其中参数100是超时时间for (ConsumerRecordString, String record : records) {System.out.printf(offsetConsumer %d, value %s, record.offset(), record.value());System.out.println();}}} }package com.sinosoft.b;import java.util.Properties;import org.apache.kafka.clients.producer.KafkaProducer; import org.apache.kafka.clients.producer.Producer; import org.apache.kafka.clients.producer.ProducerRecord;public class ProducerTest {public static void main(String[] args) {Properties properties new Properties();properties.put(bootstrap.servers, 192.168.521.1314:9092);// 指向kafka集群的IP地址properties.put(acks, all);properties.put(retries, 0);properties.put(batch.size, 16384);properties.put(linger.ms, 1);properties.put(buffer.memory, 33554432);properties.put(key.serializer, org.apache.kafka.common.serialization.StringSerializer);properties.put(value.serializer, org.apache.kafka.common.serialization.StringSerializer);ProducerString, String producer null;try {producer new KafkaProducerString, String(properties);for (int i 0; i 100; i) {String msg This is Message i;producer.send(new ProducerRecordString, String(xuhaitao, msg));System.out.println(Sent: msg);}} catch (Exception e) {e.printStackTrace();} finally {producer.close();}} }

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/925425.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

从网站栏目看网站功能兰州seo整站优化服务商

SVN 1、SVN和Git的区别 SVN是集中式的,也就是会有一个服务器保存所有代码,拉取代码的时候只能从这个服务器上拉取;Git是分布式的,也就是说每个人都保存有所有代码,如果要获取代码,可以从其他人手上获取SV…

开个网站多少钱一年学校网站源码

heap【堆】掌握 手写上浮、下沉、建堆函数 对一组数进行堆排序 直接使用接口函数heapq 什么是堆???堆是一个二叉树。也就是有两个叉。下面是一个大根堆: 大根堆的每一个根节点比他的子节点都大 有大根堆就有小根堆&#xff1…

go mod 面试题

go mod 有哪些命令都有什么作用 Go Mod 常用命令及功能一览 go mod 是 Go 语言从 1.11 版本开始引入的官方依赖管理工具,用于初始化、创建和维护项目的 go.mod 文件,管理项目的依赖关系。 以下是 go mod 最核心、最常…

做学校子网站抖音代运营违法吗

body{margin:8px;} iframe{border:2px;} th,td{padding:1;} table{border-spacing:2px;border-collapse:separate;} dfn{斜体} <dfn> 标签可标记那些对特殊术语或短语的定义。 现在流行的浏览器通常用斜体来显示 <dfn> 中的文本。将来&#xff0c;<dfn> 还可…

网站报名系统怎么做wordpress 点击量

一般是三种方法&#xff1a;(1)用vector的vector&#xff0c;(2)先分配一个指针 数组&#xff0c;然后让里面每一个指针再指向一个数组&#xff0c;这个做法的好处是访问数组元素时比较直观&#xff0c;可以用a[x][y]这样的写法&#xff0c;缺点是它相当于C#中的一个锯齿 数组&…

多轮对话系统设计的逻辑陷阱与解决方案

一、引言:对话系统的复杂性挑战 随着GPT-5等大模型技术的成熟,多轮对话系统在客服、教育、医疗等领域的应用日益广泛。然而,根据2025年MIT人机交互实验室的研究显示,78%的对话系统故障源于设计逻辑缺陷而非技术限制…

手机免费建立网站wordpress 旋转预加载

目录 一、前菜 1、Python选择 2、pip源切换 3、ffmpeg配置问题 4、VSCode添加Jupyter扩展 二、配置虚拟环境 1、下载源码 方法一 直接下载源码压缩包 方法二 使用git 1&#xff09;git加入鼠标右键 2&#xff09;git clone源码 2、VSCode出场 1&#xff09;创建pyth…

网站综合查询工具在谷歌上怎么做网页

默默地EEer&#xff0c;原文地址&#xff1a; http://www.cnblogs.com/hebaichuanyeah/p/5625233.html 职责链模式指使多个对象多有机会处理请求&#xff0c;避免请求发送者和接受者的耦合关系。 将这些接受处理的对象连成一条链&#xff0c;并沿着该链处理请求。 一个传说中的…

c 教程如何做网站茶叶市场网站建设方案

“开始”-->“运行”-->“cmd”打开命令提示符&#xff0c;&#xff08;或win R&#xff09;输入“netstat -ano”可以看到所有的连接。可能的话&#xff0c;在“windows任务管理器”找到PID对应的程序即可。如果没有PID项&#xff0c;可以在“windows任务管理器”选“查…

app界面生成器网站seo网络优化公司

spring-boot项目搭建一、从官网搭建1、进入spring官网&#xff0c;快速初始化一个项目2、填写项目基本信息3、项目结构分析4、添加项目依赖5、下载到本地6、解压7、idea&#xff0c;打开&#xff0c;使用maven构建项目8、使用maven构建9、这是构建好的&#xff0c;其它目录全部…

嘉兴网站seo外包百度网站提交

1.概念 有监督学习正向传播&#xff1a;输入样本---输入层---各隐层---输出层反向传播&#xff1a;误差以某种形式在通过隐层向输入层逐层反转&#xff0c;并将误差分摊给各层的所有单元&#xff0c;以用于修正各层的权值激活函数&#xff1a;也叫阶跃函数&#xff0c;目的是引…

【光照】[PBR][菲涅尔]实现方法对比

Unity URP中的菲涅尔效应主要采用Schlick近似模型,通过三步流程实现:确定基础反射率F₀、角度依赖计算和金属/非金属处理。该模型以1次pow运算实现高性价比的实时渲染,视觉误差小于2%,并与GGX+Smith模型完美配合。…

专做展厅设计网站专业网站优化seo

信息流广告是什么 “今日头条和百度必有一战”&#xff0c;相信不少的互联网人在过去几个月都听到过类似的断言。定位于信息分发平台的今日头条和主营搜索业务的百度会产生如此大的利益冲突&#xff0c;最核心的点其实就是信息流广告。 信息流广告指的是在用户使用互联网产品或…

20251002NOIP模拟赛

T4: 题目大意: 定义一个数组 \(a\) 是良好的,当且仅当可以选择若干个(可以为 0)不交的区间,将他们内部 reverse 之后升序。 给定 \(n\) 和排列 \(a\),对于每个 \(k\),求有多少子序列不包含 \(a_{k}\) 且是良好…

网站怎么做qq微信登陆个人建网站允许吗

Cython不仅仅是一种编程语言。它的起源可以追溯到SAGE数学软件包&#xff0c;它用于提高数学计算性能&#xff0c;例如涉及矩阵的计算。更一般地说&#xff0c;我倾向于将Cython视为SWIG的替代品&#xff0c;为本机代码生成非常好的Python绑定。SWIG是最早和最好之一&#xff0…

自助网站建设技术支持品牌网站分析

python全栈开发笔记第二模块 第四章 &#xff1a;常用模块&#xff08;第二部分&#xff09; 一、os 模块的 详解 1、os.getcwd() &#xff1a;得到当前工作目录&#xff0c;即当前python解释器所在目录路径 import os j os.getcwd() # 返回当前pyt…

P10279 [USACO24OPEN] The Winning Gene S题解

题目描述 给定一个长为 \(N\) 的字符串 \(S\),其中 \(1\le N\le 3000\)。对某个数对 \((K,L)\),其中 \(1\le L\le K\le N\),从 \(S\) 中取出所有 \(K\) 长度的子串,取出其所有长度为 \(L\) 的子串,将字典序最小的…

广州电商网站开发公司单页面 网站

简介&#xff1a; 7月8日&#xff0c;中文语言理解权威评测基准CLUE公开了中文小样本学习评测榜单最新结果&#xff0c;阿里云计算平台PAI团队携手达摩院智能对话与服务技术团队&#xff0c;在大模型和无参数限制模型双赛道总成绩第一名&#xff0c;决赛答辩总成绩第一名。 作…

欧亚专线到国内多久网站东莞优化建设

利用示波器统计工具分析有噪声信号之测量统计和余晖图2019-09-24数字示波提供了多种基于统计的工具&#xff0c;除了前文提到的平均和直方图之外&#xff0c;测量参数统计和余晖图&#xff0c;也是非常有用的工具&#xff0c;协助快速获取有用信息。对于示波器测量参数&#xf…