中国建设教育网官方网站网站开发备案费用

news/2025/9/23 17:28:35/文章来源:
中国建设教育网官方网站,网站开发备案费用,搜狗推广管家下载,广州建筑公司实力排名文章目录 1. ELK的概述1.1 简介1.2 使用ELK的理由1.3 ELK的主要组件1.3.1 Elasticsearch1.3.2 Kibana1.3.3 Logstash1.3.3.1 简介1.3.3.2 Logstash常用相关命令选项 1.3.3.3 Logstash 的输入和输出流1.3.4 Logstash的相关配置文件 1.3.4 Filebeat1.3.4.1 简介1.3.4.2 filebeat … 文章目录 1. ELK的概述1.1 简介1.2 使用ELK的理由1.3 ELK的主要组件1.3.1 Elasticsearch1.3.2 Kibana1.3.3 Logstash1.3.3.1 简介1.3.3.2 Logstash常用相关命令选项 1.3.3.3 Logstash 的输入和输出流1.3.4 Logstash的相关配置文件 1.3.4 Filebeat1.3.4.1 简介1.3.4.2 filebeat 结合 logstash 的优点 1.3.5 缓存/消息队列1.3.6 Fluentd 1.4 ELK的工作原理 2. 部署ELK2.1 前置准备2.2 环境搭建2.3 ELK ElasticSearch部署node1和node2)2.3.1 rpm安装elasticsearch2.3.2 修改elasticsearch主配置文件2.3.3 es 性能调优参数需重启生效2.3.4 启动elasticsearch2.3.5 查看节点信息2.3.6 查看集群信息 2.4 安装 Elasticsearch-head 插件2.4.1 编译安装 node2.4.2 安装 phantomjs2.4.3 安装 Elasticsearch-head 数据可视化工具2.4.4 修改 Elasticsearch 主配置文件2.4.5 启动 elasticsearch-head 服务2.4.6 通过 Elasticsearch-head 查看 Elasticsearch 信息2.4.7 插入索引 2.5 ELK Logstash 部署2.5.1 安装logstash和相关服务2.5.2 测试 Logstash将信息写入 Elasticsearch 中2.5.3 修改 logstash配置文件 2.6 ELK Kiabana 部署2.6.1 安装Kibana2.6.2 修改kibana主配置文件2.6.3 创建日志文件启动 Kibana 服务2.6.4 验证 Kibana2.6.5 将 Apache 服务器的日志访问的、错误的添加到 Elasticsearch 并通过 Kibana 显示 3. Filebeat作为日志收集器3.1 前置准备3.2 安装FilebeatNode1节点3.3 修改filebeat的主配置文件Node1节点3.4 启动 filebeat3.5 在 Logstash 组件所在节点上新建一个 Logstash 配置文件 1. ELK的概述 1.1 简介 ELK平台是一套完整的日志集中处理解决方案将 ElasticSearch、Logstash 和 Kiabana 三个开源工具配合使用 完成更强大的用户对日志的查询、排序、统计需求。 1.2 使用ELK的理由 集中化管理日志后日志的统计和检索的效率降低。 ELK 提供了一个完整的日志管理和分析解决方案能够帮助用户更好地理解数据、监控系统性能并进行故障排除。 1.3 ELK的主要组件 基础组件Elasticsearch、Logstash、Kibana 扩展组件Filebeat、Fluentd 1.3.1 Elasticsearch Elasticsearch 提供了强大的搜索和分析引擎。 Elasticsearch是一个实时的、分布式的可扩展的搜索引擎 它基于 Lucene 搜索引擎库构建具有分布式搜索、实时数据分析、高性能和高可伸缩性的特点。 Elasticsearch 可以存储和索引大规模的数据(比如日志并提供快速的全文搜索、条件过滤、聚合和分析功能。 1.3.2 Kibana Kibana 提供了可视化和交互式分析的界面。 Kibana 是一个针对Elasticsearch的开源数据分析及可视化平台用来搜索、查看交互存储在Elasticsearch索引中的数据。 使用Kibana可以通过各种图表进行高级数据分析及展示创建自定义仪表盘来展示关键指标和监控警报。 1.3.3 Logstash 1.3.3.1 简介 Logstash 实现了数据的收集和处理。 Logstash 是一个可扩展的数据收集、转换和传输工具。 它可以从各种来源如日志文件、消息队列、数据库等收集数据并将其转换为统一的格式然后发送到 Elasticsearch 进行存储和分析。 Logstash 提供了丰富的输入插件和输出插件可以与各种数据源和目标进行集成。 它还具有强大的过滤功能可以对数据进行处理、过滤和转换以满足不同的业务需求。 1.3.3.2 Logstash常用相关命令选项 #Logstash 命令常用选项-f通过这个选项可以指定 Logstash 的配置文件根据配置文件配置 Logstash 的输入和输出流-e从命令行中获取输入、输出后面跟着字符串该字符串可以被当作 Logstash 的配置如果是空则默认使用 stdin 作为输入stdout 作为输出-t测试配置文件是否正确然后退出。1.3.3.3 Logstash 的输入和输出流 #定义输入和输出流#输入采用标准输入 #输出采用标准输出类似管道 #新版本默认使用 rubydebug 格式输出 logstash -e input { stdin{} } output { stdout{} }使用 rubydebug 输出详细格式显示#codec 为一种编解码器 logstash -e input { stdin{} } output { stdout{ codecrubydebug } }#示例 #键入内容标准输入 www.baidu.com #使用 input 插件来定义一个输入源#stdin{} 表示使用标准输入作为输入 #然后使用 output 插件来定义一个输出目标 #stdout{ codecrubydebug } 表示将数据打印到标准输出并使用 rubydebug 编解码器来格式化输出。1.3.4 Logstash的相关配置文件 Logstash 配置文件基本由三部分组成input、output 以及 filter。 filter部分选择性添加可以没有。 input部分 #表示从数据源采集数据。#常见的数据源如Kafka、日志文件等。 file beats kafka redis stdin#基本格式 input {...}filter部分 数据处理层包括对数据进行格式化处理、数据类型转换、数据过滤等支持正则表达式。#基本格式 filter {...}插件名功能grok对若干个大文本字段进行再分割成一些小字段 (?字段名正则表达式)字段名正则表达式匹配到的内容date对数据中的时间格式进行统一和格式化mutate对一些无用的字段进行剔除或增加字段mutiline对多行数据进行统一编排多行合并或拆分 ouput部分 表示将Logstash收集的数据经由过滤器处理之后输出到Elasticsearch。elasticsearch stdout#基本格式 output {...}#补充说明在每个部分中也可以指定多个访问方式font。#举个例子若要指定两个日志来源文件则格式如下 input {file { path /var/log/messages type syslog}file { path /var/log/httpd/access.log type apache} }1.3.4 Filebeat 1.3.4.1 简介 轻量级的开源日志文件数据搜集器。 通常在需要采集数据的客户端安装 Filebeat并指定目录与日志格式Filebeat 就能快速收集数据并发送给 logstash 进行解析或是直接发给 Elasticsearch 存储。 性能上相比运行于 JVM 上的 logstash 优势明显是对它的替代。 常应用于 EFLK 架构当中。 1.3.4.2 filebeat 结合 logstash 的优点 通过 Logstash 具有基于磁盘的自适应缓冲系统该系统将吸收传入的吞吐量从而减轻 Elasticsearch 持续写入数据的压力 从其他数据源例如数据库S3对象存储或消息传递队列中提取 将数据发送到多个目的地例如S3HDFSHadoop分布式文件系统或写入文件 使用条件数据流逻辑组成更复杂的处理管道。 1.3.5 缓存/消息队列 例如redis、kafka、RabbitMQ等 对高并发日志数据进行流量削峰和缓冲。 这样的缓冲可以一定程度的保护数据不丢失还可以对整个架构进行应用解耦。 1.3.6 Fluentd Fluentd是一个流行的开源数据收集器。 由于 logstash 太重量级的缺点Logstash 性能低、资源消耗比较多等问题随后就有 Fluentd 的出现。 相比较 logstashFluentd 更易用、资源消耗更少、性能更高在数据处理上更高效可靠受到企业欢迎成为 logstash 的一种替代方案常应用于 EFK 架构当中。 1.4 ELK的工作原理 在所有需要收集日志的服务器上部署Logstash或者先将日志进行集中化管理在日志服务器上在日志服务器上部署 Logstash。 Logstash 收集日志将日志格式化并输出到 Elasticsearch 群集中。 Elasticsearch 对格式化后的数据进行索引和存储。 Kibana 从 ES 群集中查询数据生成图表并进行前端数据的展示。 综上所述 logstash作为日志搜集器从数据源采集数据并对数据进行过滤格式化处理然后交由Elasticsearch存储kibana对日志进行可视化处理。 2. 部署ELK 使用Logstash作为日志收集器 2.1 前置准备 ServerIPComponentsSystemapache192.168.67.100Logstash ApacheCentOS7.4(64 位)node1192.168.67.101Elasticsearch 、 KibanaCentOS7.4(64 位)node2192.168.67.102ElasticsearchCentOS7.4(64 位) 2.2 环境搭建 systemctl disable firewalld --nowsed -i s/enforcing/disabled/ /etc/selinux/config #所有节点关闭防火墙和selinux#apache节点 hostnamectl set-hostname apache#node1节点 hostnamectl set-hostname node1#node2节点 hostnamectl set-hostname node2#域名解析 #node1和node2 cat /etc/hosts EOF 192.168.67.101 node1 192.168.67.102 node2 EOF#查看java环境#查看Java环境如果没有安装yum -y install java java -version2.3 ELK ElasticSearch部署node1和node2) 2.3.1 rpm安装elasticsearch #上传elasticsearch-6.7.2.rpm到/opt目录下 cd /opt rpm -ivh elasticsearch-6.7.2.rpm#加载系统服务 systemctl daemon-reloadsystemctl enable elasticsearch.service --now2.3.2 修改elasticsearch主配置文件 #node1yml格式的文件冒号后要加空格。#先备份 cp /etc/elasticsearch/elasticsearch.yml /etc/elasticsearch/elasticsearch.yml.bakvim /etc/elasticsearch/elasticsearch.yml #编辑配置文件#17行 取消注释指定集群名字 cluster.name: my-elk-cluster#23行 取消注释指定节点名字Node1节点为node1Node2节点为node2 node.name: node1 node.master: true node.data: true#33行 取消注释指定数据存放路径 path.data: /var/lib/elasticsearch/#37行 取消注释指定日志存放路径 path.logs: /var/log/elasticsearch/#43行 取消注释改为在启动的时候不锁定内存 bootstrap.memory_lock: false#55行 取消注释设置监听地址0.0.0.0代表所有地址 network.host: 0.0.0.0#59行 取消注释ES 服务的默认监听端口为9200 http.port: 9200 transport.tcp.port: 9300 #68行 取消注释集群发现通过单播实现指定要发现的节点 node1、node2 discovery.zen.ping.unicast.hosts: [192.168.67.101:9300, 192.168.67.102:9300]#查看所有配置项 grep -v ^# /etc/elasticsearch/elasticsearch.yml#node2 #将node1的配置文件传输到node2 scp /etc/elasticsearch/elasticsearch.yml node2:/etc/elasticsearch/#修改配置文件 vim /etc/elasticsearch/elasticsearch.yml #23行 取消注释指定节点名字Node1节点为node1Node2节点为node2 node.name: node22.3.3 es 性能调优参数需重启生效 #优化最大内存大小和最大文件描述符的数量 vim /etc/security/limits.conf ...... * soft nofile 65536 * hard nofile 65536 * soft nproc 32000 * hard nproc 32000 * soft memlock unlimited * hard memlock unlimitedvim /etc/systemd/system.conf DefaultLimitNOFILE65536 DefaultLimitNPROC32000 DefaultLimitMEMLOCKinfinity##详解## - DefaultLimitNOFILE 表示每个进程可以打开的最大文件描述符数量。- DefaultLimitNPROC 表示每个用户可以创建的最大进程数量。- DefaultLimitMEMLOCK 表示每个进程可以锁定的内存量。#优化elasticsearch用户拥有的内存权限 由于ES构建基于lucene, 而lucene设计强大之处在于lucene能够很好的利用操作系统内存来缓存索引数据以提供快速的查询性能。lucene的索引文件segements是存储在单文件中的并且不可变对于OS来说能够很友好地将索引文件保持在cache中以便快速访问因此我们很有必要将一半的物理内存留给lucene ; 另一半的物理内存留给ESJVM heap )。所以 在ES内存设置方面可以遵循以下原则 1.当机器内存小于64G时遵循通用的原则50%给ES50%留给操作系统供lucene使用2.当机器内存大于64G时遵循原则建议分配给ES分配 4~32G 的内存即可其它内存留给操作系统供lucene使用。vim /etc/sysctl.conf #一个进程可以拥有的最大内存映射区域数参考数据分配 2g/2621444g/41943048g/8388608 vm.max_map_count262144sysctl -p sysctl -a | grep vm.max_map_countreboot #重启node1、noed22.3.4 启动elasticsearch #创建数据存放路径并授权mkdir -p /data/elk_datachown elasticsearch:elasticsearch /data/elk_data/ #修改属主和属组#启动elasticsearch systemctl start elasticsearch.servicess -antp | grep 92002.3.5 查看节点信息 #查看节点 Node1、Node2 的信息 #浏览器访问 http://192.168.67.101:9200 http://192.168.67.102:9200 2.3.6 查看集群信息 #浏览器访问 http://192.168.67.101:9200/_cluster/health?prettyhttp://192.168.67.102:9200/_cluster/health?pretty使用以上方式查看状态并不友好可以通过 elasticsearch-head插件来直接管理。 2.4 安装 Elasticsearch-head 插件 Elasticsearch 在 5.0 版本后Elasticsearch-head 插件需要作为独立服务进行安装需要使用npm工具NodeJS的包管理工具安装。 安装 Elasticsearch-head 需要提前安装好依赖软件 node 和 phantomjs。 node是一个基于 Chrome V8 引擎的 JavaScript 运行环境。 phantomjs是一个基于 webkit 的JavaScriptAPI可以理解为一个隐形的浏览器任何基于 webkit 浏览器做的事情它都可以做到。2.4.1 编译安装 node 上传软件包 node-v8.2.1.tar.gz 到/opt yum install gcc gcc-c make -y #安装依赖环境#解压源码包 cd /opt tar zxf node-v8.2.1.tar.gz#编译安装 cd node-v8.2.1/ ./configure make -j2 make install2.4.2 安装 phantomjs 上传软件包 phantomjs-2.1.1-linux-x86_64.tar.bz2 到/opt。 #解压 cd /opt tar jxf phantomjs-2.1.1-linux-x86_64.tar.bz2 -C /usr/local/src/cd /usr/local/src/phantomjs-2.1.1-linux-x86_64/bincp phantomjs /usr/local/bin #复制相关文件2.4.3 安装 Elasticsearch-head 数据可视化工具 上传软件包 elasticsearch-head-master.zip 到/opt。 #解压软件包 cd /opt unzip elasticsearch-head-master.zipcd elasticsearch-head-master/ npm install #安装依赖包2.4.4 修改 Elasticsearch 主配置文件 vim /etc/elasticsearch/elasticsearch.yml ...... --末尾添加以下内容-- http.cors.enabled: true #开启跨域访问支持默认为 false http.cors.allow-origin: * #指定跨域访问允许的域名地址为所有systemctl restart elasticsearch2.4.5 启动 elasticsearch-head 服务 #必须在解压后的 elasticsearch-head 目录下启动服务 #进程会读取该目录下的 gruntfile.js 文件 #否则可能启动失败 cd /opt/elasticsearch-head-master/ npm run start ss -natp |grep 9100 #elasticsearch-head 监听的端口是 91002.4.6 通过 Elasticsearch-head 查看 Elasticsearch 信息 #浏览器访问 http://192.168.67.101:9100/ 连接群集 #如果看到群集健康值为 green 绿色代表群集很健康2.4.7 插入索引 #通过命令插入一个测试索引索引为 index-demo类型为 test。 curl -X PUT localhost:9200/index-demo/test/1?prettypretty -H content-Type: application/json -d {user:zhangsan,mesg:hello world}#浏览器访问 http://192.168.67.101:9100/ #查看索引信息 可以看见索引默认被分片5个并且有一个副本#点击“数据浏览” 会发现在node1上创建的索引为 index-demo类型为 test 的相关信息。2.5 ELK Logstash 部署 在 Apache 节点上操作 Logstash 一般部署在需要监控其日志的服务器。 在本案例中Logstash 部署在 Apache 服务器上用于收集 Apache 服务器的日志信息并发送到 Elasticsearch。 2.5.1 安装logstash和相关服务 #安装Apahce服务httpdyum -y install httpd systemctl start httpd#安装Java环境yum -y install java java -version#安装logstash上传软件包 logstash-6.7.2.rpm 到/opt目录下#rpm安装 cd /opt rpm -ivh logstash-6.7.2.rpm systemctl enable logstash.service --nowln -s /usr/share/logstash/bin/logstash /usr/local/bin/ #做软链接方便使用2.5.2 测试 Logstash将信息写入 Elasticsearch 中 #使用 Logstash 将信息写入 Elasticsearch 中 logstash -e input { stdin{} } output { elasticsearch { hosts[192.168.67.101:9200] } }输入 输出 对接 ...... www.baidu.com www.sina.com.cn www.google.com#结果不在标准输出显示而是发送至 Elasticsearch 中浏览器访问 http://192.168.67.101:9100/ 查看索引信息和数据浏览2.5.3 修改 logstash配置文件 #修改 Logstash 配置文件让其收集系统日志/var/log/messages并将其输出到 elasticsearch 中。 chmod r /var/log/messages #让 Logstash 可以读取日志cd /etc/logstash/conf.d/vim system.conf input {file{path /var/log/messagestype systemstart_position beginning# ignore_older 604800sincedb_path /etc/logstash/sincedb_path/log_progressadd_field {log_hostname${HOSTNAME}}} } output {elasticsearch {hosts [192.168.67.101:9200,192.168.67.102:9200]index system-%{YYYY.MM.dd} } }#配置文件详解 #输入部分 input {file{path /var/log/messagestype systemstart_position beginning# ignore_older 604800sincedb_path /etc/logstash/sincedb_path/log_progressadd_field {log_hostname${HOSTNAME}}} } #path表示要收集的日志的文件位置 #type是输入ES时给结果增加一个叫type的属性字段 #start_position可以设置为beginning或者endbeginning表示从头开始读取文件end表示读取最新的这个要和ignore_older一起使用 #ignore_older表示了针对多久的文件进行监控默认一天单位为秒可以自己定制比如默认只读取一天内被修改的文件 #sincedb_path表示文件读取进度的记录每行表示一个文件每行有两个数字第一个表示文件的inode第二个表示文件读取到的位置byteoffset。默认为$HOME/.sincedb* #add_field增加属性。这里使用了${HOSTNAME}即本机的环境变量如果要使用本机的环境变量那么需要在启动命令上加--alow-env##输出 output {elasticsearch { #输出到 elasticsearchhosts [192.168.67.101:9200,192.168.67.102:9200] #指定 elasticsearch 服务器的地址和端口index system-%{YYYY.MM.dd} #指定输出到 elasticsearch 的索引格式} }mkdir /etc/logstash/sincedb_path/touch /etc/logstash/sincedb_path/log_progress #新建文件路径chown logstash:logstash /etc/logstash/sincedb_path/log_progress #修改文件的属主属组logstash -f system.conf #使用logstash启动配置文件浏览器访问 http://192.168.67.101:9100/ 查看索引信息2.6 ELK Kiabana 部署 在 Node1 节点上操作 2.6.1 安装Kibana #上传软件包 kibana-6.7.2-x86_64.rpm 到/opt目录 cd /opt rpm -ivh kibana-6.7.2-x86_64.rpm2.6.2 修改kibana主配置文件 vim /etc/kibana/kibana.yml#2行 取消注释Kiabana 服务的默认监听端口为5601 server.port: 5601#7行 取消注释设置 Kiabana 的监听地址0.0.0.0代表所有地址 server.host: 0.0.0.0#28行 取消注释配置es服务器的ip如果是集群则配置该集群中master节点的ip elasticsearch.url: [http://192.168.67.101:9200,http://192.168.67.102:9200] #37行 取消注释设置在 elasticsearch 中添加.kibana索引 kibana.index: .kibana#96行 取消注释配置kibana的日志文件路径需手动创建不然默认是messages里记录日志 logging.dest: /var/log/kibana.log2.6.3 创建日志文件启动 Kibana 服务 touch /var/log/kibana.log #创建日志文件chown kibana.kibana /var/log/kibana.log #更改其属主和属组systemctl enable --now kibana.service ss -natp |grep 56012.6.4 验证 Kibana 浏览器访问 http://192.168.67.101:5601#第一次登录需要添加一个 Elasticsearch 索引 Management - Index Pattern - Create index patternIndex pattern 输入system-* #在索引名中输入之前配置的 Output 前缀“system”单击 “Discover” 按钮可查看图表信息及日志信息。 数据展示可以分类显示在“Available Fields”中的“host”然后单击 “add”按钮可以看到按照“host”筛选后的结果2.6.5 将 Apache 服务器的日志访问的、错误的添加到 Elasticsearch 并通过 Kibana 显示 vim /etc/logstash/conf.d/apache_log.confinput {file{path /etc/httpd/logs/access_logtype accessstart_position beginning}file{path /etc/httpd/logs/error_logtype errorstart_position beginning} } output {if [type] access {elasticsearch {hosts [192.168.67.101:9200,192.168.67.102:9200]index apache_access-%{YYYY.MM.dd}}}if [type] error {elasticsearch {hosts [192.168.67.101:9200,192.168.67.102:9200]index apache_error-%{YYYY.MM.dd}}} }cd /etc/logstash/conf.d/ /usr/share/logstash/bin/logstash -f apache_log.conf浏览器访问 http://192.168.67.101:9100 查看索引是否创建浏览器访问 http://192.168.2.100:5601 登录 Kibana 单击“Index Pattern - Create Index Pattern”按钮添加索引 在索引名中输入之前配置的 Output 前缀 apache_access-*并单击“Create”按钮。 再用相同的方法添加 apache_error-*索引。选择“Discover”选项卡 在中间下拉列表中选择刚添加的 apache_access-* 、apache_error-* 索引 可以查看相应的图表及日志信息。3. Filebeat作为日志收集器 3.1 前置准备 ServerIPComponentsSystemApache192.168.67.100Logstash ApacheCentOS7.4(64 位)Node1192.168.67.101Elasticsearch 、 KibanaCentOS7.4(64 位)Node2192.168.67.102ElasticsearchCentOS7.4(64 位)Filebeat节点192.168.67.103FilebeatCentOS7.4(64 位) 3.2 安装FilebeatNode1节点 上传软件包 filebeat-6.7.2-linux-x86_64.tar.gz 到/opt目录 #解压软件包 tar zxvf filebeat-6.7.2-linux-x86_64.tar.gzmv filebeat-6.7.2-linux-x86_64/ /usr/local/filebeat3.3 修改filebeat的主配置文件Node1节点 cd /usr/local/filebeatvim filebeat.yml filebeat.inputs: - type: log #指定 log 类型从日志文件中读取消息enabled: truepaths:- /var/log/messages #指定监控的日志文件- /var/log/*.logtags: [sys] #设置索引标签fields: #可以使用 fields 配置选项设置一些参数字段添加到 output 中service_name: filebeatlog_type: syslogfrom: 192.168.67.103--------------Elasticsearch output------------------- (全部注释掉)----------------Logstash output--------------------- output.logstash:hosts: [192.168.67.100:5044] #指定 logstash 的 IP 和端口3.4 启动 filebeat #启动 filebeat nohup ./filebeat -e -c filebeat.yml #-e输出到标准输出禁用syslog/文件输出 #-c指定配置文件 #nohup在系统后台不挂断地运行命令退出终端不会影响程序的运行3.5 在 Logstash 组件所在节点上新建一个 Logstash 配置文件 cd /etc/logstash/conf.dvim filebeat.conf input {beats {port 5044} }#filebeat发送给logstash的日志内容会放到message字段里面logstash使用grok插件正则匹配message字段内容进行字段分割 #Kibana自带grok的正则匹配的工具http://your kibana IP:5601/app/kibana#/dev_tools/grokdebugger # %{IPV6}|%{IPV4} 为 logstash 自带的 IP 常量 filter {grok {match [message, (?remote_addr%{IPV6}|%{IPV4})[\s\-]\[(?logTime.*)\]\s\(?method\S)\s(?url_path.)\\s(?rev_code\d) \d \(?req_addr.)\ \(?content.*)\]} }output {elasticsearch {hosts [192.168.67.101:9200,192.168.67.102:9200]index %{[fields][service_name]}-%{YYYY.MM.dd}}stdout {codec rubydebug} }logstash -f filebeat.conf #启动 logstash浏览器访问验证 浏览器访问 http://192.168.67.101:5601 登录 Kibana 单击“Create Index Pattern”按钮添加索引“filebeat-*” 单击 “create” 按钮创建

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/913317.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

使用vue做商城网站项目难点想学网络营销怎么学

一:为什么需要NAT由于IP地址随着互联网的发展而逐渐稀缺,难以使得每台主机都拥有一个公网上的IP地址,且并不是所有主机都需要一个公网上的地址,于是就有了NAT技术。NAT(The IP Network Address Translator)…

建设工程168类似的网站做网站经验

本文的研究目标是以高校校园外卖点餐为对象,使其高校校园外卖点餐为目标,使得高校校园外卖点餐的信息化体系发展水平提高。论文的研究内容包括对个人中心、美食分类管理、用户管理、商家管理、美食信息管理、工作人员管理、安全检查管理、系统管理、订单…

深入解析Wallarm安全边缘:API边缘的即时防护技术

本文详细介绍Wallarm安全边缘平台的API防护技术架构,包括其托管式SaaS部署模式、低延迟边缘节点设计、实时可观测性仪表板、多云高可用性架构以及双向TLS加密等核心安全特性,为企业提供即时部署的API安全解决方案。A…

找兼职h5网站开发人员怎样推广自己的视频号

作者 | 奇伢来源 | 奇伢云存储典型问题:服务端优雅的拒绝今天分享一个后端编程的实际经验。这个问题来源于对象 S3 后端协议实现的技巧思考。场景:服务端不想接收 http 的 body 的时候,该怎么优雅的拒绝呢?什么意思?对…

使用ai来搭建测试用例1

使用ai来搭建测试用例1我用的是工作流网页:https://www.coze.cn/home,自己注册一下,按照图片步骤操作,最后创建一下工作流名称,恭喜你,你有了一个工作流2、在工作流里面设置“开始”,修改需要上传的文件 3、点击…

面试八股文之——JVM与并发编程/多线程 - 教程

pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

哈尔滨专业做网站德阳定制建站网站建设报价

jbpm 和 drools介绍 本文讨论了一项新功能,该功能允许使用集成在jBPM和Drools Workbenches中的直观友好的用户界面来管理应用程序的用户和组。 用户和组管理 在安装,设置和使用此功能之前,本文讨论了一些以前的概念,需要进一步理…

不用写代码可以做网站的软件深圳龙华有什么好玩的地方推荐

原文来自互联网,由长沙DotNET技术社区编译。如译文侵犯您的署名权或版权,请联系小编,小编将在24小时内删除。限于译者的能力有限,个别语句翻译略显生硬,还请见谅。作者简介:Jon(Jonathan&#x…

学校网站建设框架小程序源码之家

概述 Reddit是一个社交新闻网站,用户可以发布各种主题的内容,包括图片。本文将介绍如何使用Go语言和Colly库编写一个简单的爬虫程序,从Reddit网站上下载指定主题的图片,并保存到本地文件夹中。为了避免被目标网站反爬&#xff0c…

浏览器打开网站北京通州网站设计公司

一文了解贪心算法和回溯算法在前端中的应用一、贪心算法1、贪心算法是什么?2、应用场景3、场景剖析:零钱兑换二、回溯算法1、回溯算法是什么?2、什么问题适合选用回溯算法解决?2、应用场景3、场景剖析:全排列三、贪心算…

网站域名到期不续费会怎么样怎么制作图片链接

白鹿以前的短视频:时光剪影中的创意火花与成长轨迹 在短视频风起云涌的互联网时代,每一位创作者的早期作品都如同时间胶囊,封存着最初的创意与梦想。提及“白鹿”这一名字,不少人心中会立刻浮现出那个凭借独特风格和不懈努力&…

网站seo诊断湖南岚鸿诊断网上购物系统源码

目录 1、日志输出到文件 2、日志输出到屏幕 3、设置输出等级 4、设置多个日志输出对象 5、日志的配置 6、记录异常 7、设置日志输出样式1、日志输出到文件basicConfig()提供了非常便捷的方式让你配置logging模块并马上开始使用。什么都不配置直接使用默认值在控制台中打log&…

总线的概念以及分类

为什么要用总线: 早期计算机设备少,大多用分散的方法连接实现,不易实现随时增减外部设备,为了更好解决io设备和主机之间连接的灵活性,计算机的结构从分散连接发展为总线连接。 总线的特性 1.机械特性 尺寸,形状,…

A Great Beginning

在2025年才开始写blog似乎已经有点过时了,似乎一切技术都可以询问AI得到,但经验不是。 一些似是而非的问题连描述清楚都很难,需要有一种惊人的直觉才能从线团中捻到那根线头。 而直觉,是AI目前根本无法突破的桎梏。…

邮件系统的未来趋势:技术革新与智能化的未来

随着科技的飞速发展,邮件系统作为信息传递的重要工具,正在经历一场深刻的技术变革。从智能化的邮件管理到更加安全的加密技术,未来的邮件系统将不仅仅是一个简单的通信平台,而是会成为更加高效、智能和安全的信息交…

python-uv入门使用 - 教程

pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

docker volume使用

docker启动时指定volumedocker run -d -p 宿主机端口:容器端口 --mount type=volume,source=volume名称,target=容器内目录 镜像id数据所在目录# linux中的dockerdocker volume默认所在目录: /var/lib/docker/volumes …

网站建设设计计划表人像摄影

文章目录 并查集1.朴素版本2.路径压缩3.按秩合并4.启发式合并5.练习题 并查集 1.朴素版本 1. 并查集解决的是连通块的问题,常见操作有,判断两个元素是否在同一个连通块当中,两个非同一连通块的元素合并到一个连通块当中。 并查集和堆的结构…

如何确定网站栏目中铁建设集团有限公司下属公司

目录 1.说明 2.加密和加签的区别 3.后端加密,解密,加签及验签示例 4.前端加密,解密,加签及验签示例 5.前端加密,后端解密,前端加签,后端验签 6.注意事项 1.说明 RSA算法是一种非对称加密…

做家具商城网站东莞网络推广代理

Redis是一种高性能的键值对存储系统,它支持多种类型的数据结构,如字符串、列表、集合、哈希表、有序集合等。Redis提供了两种不同的持久化机制来确保数据的安全性:RDB(Redis Database)和AOF(Append Only Fi…