一、常用日志分析工具及操作步骤
- ELK Stack(Elasticsearch + Logstash + Kibana)
核心操作
日志收集:通过Logstash配置日志输入(如Nginx日志文件),使用grok插件解析日志格式。
数据存储:将解析后的日志存入Elasticsearch,利用其分布式搜索能力快速索引数据。
可视化统计:在Kibana中创建直方图或聚合查询,筛选指定时间范围(如“过去1小时”),统计request字段的总数。
示例命令(Logstash配置)
conf
Copy Code
input { file { path => “/var/log/nginx/access.log” } }
filter { grok { match => { “message” => “%{COMBINEDAPACHELOG}” } } }
output { elasticsearch { hosts => [“localhost:9200”] } }
- 命令行工具(AWK/Grep)
核心操作
按时间过滤日志:使用grep提取特定时间段内的日志(如2025-04-22T10:00:00至2025-04-22T11:00:00)。
统计请求总数:通过wc -l或awk计数。
示例命令
bash
Copy Code
统计1小时内总请求量
grep “2025-04-22T10:” access