Zabbix 企业级监控架构实战指南:从搭建、可视化到智能告警

news/2025/9/20 20:43:48/文章来源:https://www.cnblogs.com/wzzkaifa/p/19102821

Zabbix 基础篇 —— 部署与核心概念实战,构建监控基石

  • 一:入门
    • 1)概述
    • 2)基础架构
    • 3)Zabbix VS Prometheus
  • 二:部署
    • 1)集群准备
    • 2)**配置 `Zabbix` yum源**
    • 3)**修改 `Zabbix` 仓库配置文件**
    • 4)安装 `Zabbix`
    • 5)配置 `Zabbix`
    • 6)启动 `Zabbix`
    • 7)连接 `Zabbix Web` 数据库
    • 8)登录 `Zabbix`
  • 三:使用
    • 1)术语
    • 2)实战
      • 1. **启动 `HDFS`**
      • 2. **创建主机**
  • 三:使用
    • 1)术语
    • 2)实战
      • 1. **启动 `HDFS`**
      • 2. **创建主机**
      • 3. **创建监控项**
      • 4. **创建触发器**
      • 5. **创建动作**
      • 6. 申请邮箱
      • 7. 编辑报警媒介
      • 8. 用户配置
      • 9. 测试
  • 总结


本文是《Zabbix 企业级监控系统实战指南:从搭建、可视化到智能告警》系列的第一篇
本系列旨在手把手带领您从零开始,构建一套功能完备的企业级监控系统。

  • 第一篇:Zabbix 基础篇 —— 部署与核心概念实战,构建监控基石

    核心:完成 Zabbix 服务端、客户端的部署与基础监控,并配置邮件告警。

  • 第二篇:Zabbix 可视化篇 —— Zabbix 集成 Grafana,打造高颜值监控仪表盘

    核心:解决 Zabbix 自带图表不够美观的问题,利用 Grafana 实现灵活、强大的数据可视化。

  • 第三篇:Zabbix 告警篇 —— Grafana 集成睿象云,实现多通道智能告警通知

    核心:解决邮件告警可能被遗漏的问题,通过睿象云平台实现微信、短信、电话等多渠道告警推送与聚合管理。

系列目标:学完本系列,您将掌握 Zabbix + Grafana + 睿象云 CA 这一黄金组合,真正实现 “监控-展示-告警” 的全流程自动化。


一:入门

1)概述

Zabbix 是一个 开源企业级监控解决方案,用于监控 IT 基础设施(服务器、网络设备、虚拟化环境、应用、中间件等)的可用性和性能。它提供 数据采集、存储、可视化、告警 等全流程功能。

2)基础架构

在这里插入图片描述

  • Zabbix Agent:安装在被监控主机上,收集系统和应用数据。

  • Zabbix Server:核心服务,负责接收数据、处理数据、生成告警。

  • Database:存储监控数据(如 MySQL、PostgreSQL 等)。

  • Zabbix Web:基于 PHP 的管理和展示平台,提供配置、报表、图形。

3)Zabbix VS Prometheus

ZabbixPrometheus
发行时间20122016
开发语言C + PHPGo
性能上限约 1 万节点;大规模需 Proxy 分布式扩展;对数据库依赖较重单机高性能,支持百万级指标;扩展需 Thanos/VM 等方案
社区支持历史悠久,文档和案例丰富;问题容易在社区找到答案社区活跃,尤其在云原生和 Kubernetes 生态增长迅速
容器支持出现较早,对容器支持不佳,但新版本逐步改善原生支持 Kubernetes、Docker Swarm 等,是容器监控标准
企业使用传统 IT 运维、服务器、网络设备、数据库、中间件监控为主广泛用于互联网公司、云原生场景,尤其 Kubernetes 企业
部署难度部署复杂(需 Server + DB + Web 前端),维护成本高部署轻量,单一 Server 即可启动;但生产需 Alertmanager、Grafana、Thanos 等配合
监控方式支持 Agent、SNMP、IPMI、JMX、API、自定义脚本,多样化基于 Exporter 拉取 HTTP /metrics,支持 Pushgateway 主动推送
数据存储依赖外部数据库(MySQL/PostgreSQL/Oracle 等),大数据量需调优内置 TSDB,默认 15 天,长期存储需外部方案
可视化展示内置 Web 界面,功能完整(拓扑、报表、仪表盘),但风格传统自带简单 UI,调试用;常与 Grafana 搭配实现复杂可视化
告警机制内置告警引擎,支持邮件、短信、Webhook、脚本依赖 Alertmanager,支持分组、静默、路由、多渠道通知
适用场景传统数据中心、大型企业 IT 运维,一站式监控云原生、容器、微服务监控,DevOps 场

二:部署

1)集群准备

  1. 基础环境

    基本十一项 + SSH免密

    机器IP角色
    hadoop102192.168.2.102 | 172.16.1.102Zabbix Server + Zabbix Agent + MySQL + Zabbix Web
    hadoop103192.168.2.103 | 172.16.1.103Zabbix Agent
    hadoop104192.168.2.104 | 172.16.1.104Zabbix Agent
  2. Hadoop 搭建

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

    1. 安装 JDK

      该操作在三台机器上都要操作一遍

      # 1. 卸载系统自带 JDK
      rpm -qa | grep -i jdk | grep -i java | xargs -n1 rpm -e --nodeps
      # 2. 上传 jdk-8u212-linux-x64.tar.gz 到 /opt/software
      rz
      # 3. 解压缩
      tar -xzvf /opt/software/jdk-8u212-linux-x64.tar.gz -C /opt/module
      # 4. 配置环境变量
      vim /etc/profile
      #JAVA_HOME
      export JAVA_HOME=/opt/module/jdk1.8.0_212
      export PATH=$PATH:$JAVA_HOME/bin
      # 5. 加载环境变量
      source /etc/profile
    2. 安装 Hadoop

      该操作在三台机器上都要操作一遍

      # 1. 上传 hadoop-3.1.3.tar.gz 到 /opt/software
      rz
      # 2. 解压缩
      tar -xzvf /opt/software/hadoop-3.1.3.tar.gz -C /opt/module
      # 3. 配置环境变量
      vim /etc/profile
      # HADOOP_HOME
      export HADOOP_HOME=/opt/module/hadoop-3.1.3
      export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
      export HADOOP_CLASSPATH=`$HADOOP_HOME/bin/hadoop classpath`
      export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
      # 4. 加载环境变量
      source /etc/profile
    3. 集群配置

      该操作在三台机器上都要操作一遍

      # 1. 配置 core-site.xml 文件
      vim /opt/module/hadoop-3.1.3/etc/hadoop/core-site.xml
      <configuration><!-- 指定NameNode的地址 --><property><name>fs.defaultFS</name><value>hdfs://hadoop102:8020</value></property><!-- 指定hadoop数据的存储目录 --><property><name>hadoop.tmp.dir</name><value>/opt/module/hadoop-3.1.3/data</value></property><!-- 配置HDFS网页登录使用的静态用户为 root --><property><name>hadoop.http.staticuser.user</name><value>root</value></property></configuration>
      # 2. 配置 hdfs-site.xml 文件
      vim /opt/module/hadoop-3.1.3/etc/hadoop/hdfs-site.xml
      <configuration><!-- namenode web端访问地址--><property><name>dfs.namenode.http-address</name><value>hadoop102:9870</value></property><!-- SecondaryNameNode web端访问地址--><property><name>dfs.namenode.secondary.http-address</name><value>hadoop104:9868</value></property><!-- 指定 HDFS 副本的数量 --><property><name>dfs.replication</name><value>3</value></property><!-- 关闭 HDFS 检查 --><property><name>dfs.permissions.enabled</name><value>false</value></property></configuration>
      # 3. 配置 yarn-site.xml 文件
      vim /opt/module/hadoop-3.1.3/etc/hadoop/yarn-site.xml
      <configuration><!-- 指定 MR 走 shuffle --><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><!-- 指定 ResourceManager 的地址 --><property><name>yarn.resourcemanager.hostname</name><value>hadoop103</value></property><!-- 环境变量的继承 --><property><name>yarn.nodemanager.env-whitelist</name><value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value></property></configuration>
      # 4. 配置 mapred-site.xml 文件
      vim /opt/module/hadoop-3.1.3/etc/hadoop/mapred-site.xml
      <configuration><!-- 指定MapReduce程序运行在Yarn上 --><property><name>mapreduce.framework.name</name><value>yarn</value></property></configuration>
      # 4. 配置 workers 文件
      vim /opt/module/hadoop-3.1.3/etc/hadoop/workers
      hadoop102
      hadoop103
      hadoop104
      # 5. 配置 hadoop-env.sh 文件
      vim /opt/module/hadoop-3.1.3/etc/hadoop/hadoop-env.sh
      export JAVA_HOME=/opt/module/jdk1.8.0_212
      export HDFS_NAMENODE_USER=root
      export HDFS_DATANODE_USER=root
      export HDFS_SECONDARYNAMENODE_USER=root
      export YARN_RESOURCEMANAGER_USER=root
      export YARN_NODEMANAGER_USER=root
      # 6. 创建 logs 文件夹
      mkdir /opt/module/hadoop-3.1.3/logs
    4. 初始化

      # 1. 在 NameNode 节点进行格式化
      [root@hadoop102 hadoop-3.1.3]# ./bin/hdfs namenode -format 
  3. 部署 MySQL

    只在 hadoop102 上部署

    # 1. 删除系统相关软件包
    [root@hadoop102 ~]# rpm -qa | grep -i mariadb-server | xargs rpm -e --nodeps
    # 2. 安装 Mariadb
    [root@hadoop102 ~]# yum install -y mariadb-server
    # 3. 启动 Mariadb
    [root@hadoop102 ~]# systemctl start mariadb.service 
    [root@hadoop102 ~]# systemctl enable mariadb.service 
    # 4. 数据库安全配置
    [root@hadoop102 ~]# mysql_secure_installation
    Enter current password for root (enter for none): 回车
    Set root password? \[Y/n\] y # 设置密码
    New password: 123456 # 输入密码
    Re-enter new password: 123456 # 再次输入密码
    Remove anonymous users? \[Y/n\] y # 删除数据库中的匿名用户(没有用户名的用户,容易导致安全问题)
    Disallow root login remotely? \[Y/n\] y # 是否禁止 root 远程登录
    Remove test database and access to it? \[Y/n\] y # 是否删除test测试用的数据库
    Reload privilege tables now? \[Y/n\] y # 是否更新权限信息表

2)配置 Zabbix yum源

三台机器都要操作一遍

# 1. 安装 Zabbix 的软件仓库配置包
rpm -Uvh https://mirrors.aliyun.com/zabbix/zabbix/5.0/rhel/7/x86_64/zabbix-release-5.0-1.el7.noarch.rpm
# 2. 配置 SCLo 源
vim /etc/yum.repos.d/centos-sclo-scl.repo
[centos-sclo-rh]
name=CentOS-7 - SCLo rh
baseurl=https://mirrors.aliyun.com/centos-vault/7.9.2009/sclo/$basearch/rh/
enabled=1
gpgcheck=0
[centos-sclo-sclo]
name=CentOS-7 - SCLo sclo
baseurl=https://mirrors.aliyun.com/centos-vault/7.9.2009/sclo/$basearch/sclo/
enabled=1
gpgcheck=0
# 3. 更新缓存
yum clean all
yum makecache

3)修改 Zabbix 仓库配置文件

三台机器都要操作一遍

# 1. 修改为阿里云镜像
sed -i 's/http:\/\/repo.zabbix.com/https:\/\/mirrors.aliyun.com\/zabbix/g' /etc/yum.repos.d/zabbix.repo
# 2. 启用zabbix-web仓库
vim /etc/yum.repos.d/zabbix.repo
[zabbix-frontend]
enabled=1

4)安装 Zabbix

# hadoop102
yum install -y zabbix-server-mysql zabbix-agent zabbix-web-mysql-scl zabbix-apache-conf-scl
# hadoop103、hadoop104
yum install -y zabbix-agent

5)配置 Zabbix

  • Zabbix Server

    1. 创建 Zabbix 存储数据库

      [root@hadoop102 ~]# mysql -u'root' -p'123456' -e 'create database zabbix character set utf8 collate utf8_bin'
    2. 导入 Zabbix 建表语句

      把 Zabbix 官方提供的数据库初始化脚本解压后,直接导入到 MySQL 的 zabbix 数据库中

      [root@hadoop102 ~]# zcat /usr/share/doc/zabbix-server-mysql-5.0.47/create.sql.gz | mysql -u'root' -p'123456' zabbix
    3. 数据库用户授权

      mysql -u'root' -p'123456'
      MariaDB [(none)]> GRANT ALL PRIVILEGES ON zabbix.* TO 'root'@'192.168.2.102' IDENTIFIED BY '123456';
      MariaDB [(none)]> FLUSH PRIVILEGES;
    4. 修改 zabbix_server.conf

      [root@hadoop102 ~]# vim /etc/zabbix/zabbix_server.conf
      DBHost=192.168.2.102
      DBName=zabbix
      DBUser=root
      DBPassword=123456
    5. 配置 Zabbix Web 时区

      [root@hadoop102 ~]# vim /etc/opt/rh/rh-php72/php-fpm.d/zabbix.conf
      php_value[date.timezone] = Asia/Shanghai
  • Zabbix Agent

    三台机器都要配置一遍

    1. 修改 zabbix-serve.conf

      vim /etc/zabbix/zabbix_agentd.conf
      Server=hadoop102
      #ServerActive=127.0.0.1
      #Hostname=Zabbix server

6)启动 Zabbix

# hadoop102
systemctl start zabbix-server zabbix-agent httpd rh-php72-php-fpm
systemctl enable zabbix-server zabbix-agent httpd rh-php72-php-fpm
# hadoop103、hadoop104
systemctl start zabbix-agent
systemctl enable zabbix-agent

7)连接 Zabbix Web 数据库

  1. 浏览器访问 http://192.168.2.102/zabbix/setup.php
    在这里插入图片描述

  2. 检测配置
    ![在这里插入图片描述](https://i-blog.csdnimg.cn/direct/7ea745ce465c4e76a1e51dd7c4a621ae.png

  3. 配置数据库

    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

  4. 配置 Zabbix Server
    外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

  5. 预览配置

    在这里插入图片描述

  6. 完成

    在这里插入图片描述

8)登录 Zabbix

  1. 登录

    Username: Admin

    Password: zabbix

    在这里插入图片描述

  2. 首页

    在这里插入图片描述

  3. 点击 User settings

    在这里插入图片描述

  4. 修改 Language

    在这里插入图片描述

  5. 查看

    注意:这里默认会对Zabbix Server进行监控,但是我们可以看到目前该主机是红色,不可用的状态,原因是主机的地址不能使用 127.0.0.1需要后续我们单独配置。

    在这里插入图片描述


三:使用

1)术语

  1. 主机(Host)
    • 代表一台被监控的设备。
    • 使用 IP 地址域名 来标识。
  2. 监控项(Item)
    • 定义要收集的具体数据指标。
    • 比如:CPU 使用率、内存占用、磁盘空间等。
  3. 触发器(Trigger)
    • 通过逻辑表达式设定 阈值条件
    • 用于判断监控项数据是否异常,并生成告警事件。
  4. 动作(Action)
    • 对触发器产生的事件执行的自动响应。
    • 例如:发送邮件通知、短信告警、调用脚本。

2)实战

这里我们以监控 HDFS 集群为例

1. 启动 HDFS

[root@hadoop102 hadoop-3.1.3]# ./sbin/start-dfs.sh 
[root@hadoop102 hadoop-3.1.3]# xcall.sh jps
================ 脚本作用 =================
批量执行命令: 'jps'
节点区间: 102 - 104
当前用户: root
============================================
--- root@hadoop104 ---
118241 DataNode
118619 SecondaryNameNode
119003 Jps
--- root@hadoop103 ---
119702 DataNode
120429 Jps
--- root@hadoop102 ---
124162 DataNode
123940 NameNode
125079 Jps

2. 创建主机

有个默认的 127.0.0.1 的主机,该主机不可用可以直接删除


三:使用

1)术语

  1. 主机(Host)
    • 代表一台被监控的设备。
    • 使用 IP 地址域名 来标识。
  2. 监控项(Item)
    • 定义要收集的具体数据指标。
    • 比如:CPU 使用率、内存占用、磁盘空间等。
  3. 触发器(Trigger)
    • 通过逻辑表达式设定 阈值条件
    • 用于判断监控项数据是否异常,并生成告警事件。
  4. 动作(Action)
    • 对触发器产生的事件执行的自动响应。
    • 例如:发送邮件通知、短信告警、调用脚本。

2)实战

这里我们以监控 HDFS 集群为例

1. 启动 HDFS

[root@hadoop102 hadoop-3.1.3]# ./sbin/start-dfs.sh 
[root@hadoop102 hadoop-3.1.3]# xcall.sh jps
================ 脚本作用 =================
批量执行命令: 'jps'
节点区间: 102 - 104
当前用户: root
============================================
--- root@hadoop104 ---
118241 DataNode
118619 SecondaryNameNode
119003 Jps
--- root@hadoop103 ---
119702 DataNode
120429 Jps
--- root@hadoop102 ---
124162 DataNode
123940 NameNode
125079 Jps

2. 创建主机

有个默认的 127.0.0.1 的主机,该主机不可用可以直接删除
在这里插入图片描述

  1. 点击配置 -> 主机 -> 创建主机

    在这里插入图片描述

  2. 配置主机

    在这里插入图片描述

  3. 配置三台主机
    在这里插入图片描述

3. 创建监控项

  1. 点击监控项
    在这里插入图片描述

  2. 点击创建监控项
    在这里插入图片描述

  3. 配置监控项
    在这里插入图片描述

  4. 配置三台主机的监控项

    在这里插入图片描述
    在这里插入图片描述

  5. 查看最新数据

    在这里插入图片描述
    在这里插入图片描述

4. 创建触发器

  1. 点击触发器
    在这里插入图片描述

  2. 点击创建触发器

    在这里插入图片描述

  3. 配置触发器

    在这里插入图片描述
    在这里插入图片描述

  4. 配置三台主机的触发器
    在这里插入图片描述
    在这里插入图片描述

5. 创建动作

  1. 点击动作
    在这里插入图片描述

  2. 点击创建动作
    在这里插入图片描述

  3. 配置动作&操作

  4. 查看

    在这里插入图片描述

6. 申请邮箱

本案例采用邮件报警,可以使用126、163、QQ 等邮箱。下面以QQ邮箱为例。

  1. 开启 POP3/IMAP/SMTP 服务
    在这里插入图片描述

    在这里插入图片描述

    在这里插入图片描述

  2. 获取授权码

    在这里插入图片描述

    在这里插入图片描述

    在这里插入图片描述

  3. IMAP/SMTP 设置方法

    在这里插入图片描述

在这里插入图片描述

7. 编辑报警媒介

媒介类型 里配置的是 怎么发邮件(发件人、SMTP、认证方式)

  1. 点击媒介
    在这里插入图片描述

  2. 点击 Email
    在这里插入图片描述

  3. 编辑

    SMTP服务器:smtp.qq.com

    SMTP HELO:smtp.qq.com

    SMTP 电邮:发件人邮箱

    用户名称:发件人邮箱

    密码:发件人邮箱的授权码

    在这里插入图片描述

  4. 测试

    在这里插入图片描述

    在这里插入图片描述

    在这里插入图片描述

    在这里插入图片描述

8. 用户配置

给动作中配置的用户配置 Email,设置收件人地址

  1. 点击用户

    在这里插入图片描述

  2. 选择用户
    在这里插入图片描述

  3. 点击报警媒介
    在这里插入图片描述

  4. 点击添加
    在这里插入图片描述

  5. 查看

    在这里插入图片描述

9. 测试

  1. 关闭 HDFS

    [root@hadoop102 hadoop-3.1.3]# ./sbin/stop-dfs.sh 
  2. 查看

    在这里插入图片描述
    在这里插入图片描述


总结

本篇文章全面介绍了Zabbix企业级监控系统的核心概念、部署方法和实战应用。通过搭建三节点集群和配置HDFS监控案例,展示了Zabbix在传统IT基础设施监控中的强大能力:

✅ 核心优势:功能全面、历史悠久、社区支持好,适合传统企业环境
✅ 监控流程:主机→监控项→触发器→动作的完整监控流水线
✅ 报警集成:支持多种报警方式,本文详细演示了邮件报警配置
✅ 实战价值:通过HDFS监控案例,可扩展到其他服务监控场景

Zabbix作为成熟的企业级监控解决方案,在传统IT环境中仍然具有不可替代的价值,特别适合需要对服务器、网络设备、数据库等进行全面监控的企业环境。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/908535.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

基于MATLAB的视频动态目标跟踪检测搭建方案

基于MATLAB的视频动态目标跟踪检测搭建方案pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "…

第三篇:Windows10/11软件集成与系统优化 - 教程

第三篇:Windows10/11软件集成与系统优化 - 教程2025-09-20 20:21 tlnshuju 阅读(0) 评论(0) 收藏 举报pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display…

U522155 数据生成(小心电脑)

// code by 樓影沫瞬_Hz17 #include <bits/stdc++.h> using namespace std;#define getc() getchar_unlocked() #define putc(a) putchar_unlocked(a) #define en_ putc(\n) #define e_ putc( )using pii = pair…

Windows-Appx

Windows-Appx导航 (返回顶部)1. PS_modules 2. Appx 3. Get-AppxPackage3.1 Syntax 语法 3.2 Description 描述 3.3 Examples 3.4 Parameters 参数4. Remove-AppxPackage4.1 Syntax 4.2 Description 4.3 Parameters5. …

实用指南:OSG中osgFX库

实用指南:OSG中osgFX库pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", &qu…

2025.9.20——1橙

终于结束初赛,可以好好写写编程题了。 普及- P10108 [GESP202312 六级] 闯关游戏 很简单的一道dp题,但我因为没考虑到答案可能是负数,卡了好几次。

CSP 2025 游记

前言 被迫报了 J 组,不好评价。 初赛 J 组 上午坐大巴在车上睡着了,然后正好在考点门口被颠醒了…… 提前半个小时到了考点,又在桌子上趴了一会,不过没睡着。两个监考老师左右脑互搏,至今不知道准考证号前四位要填…

配置Spring框架以连接SQL Server数据库

Spring框架是一个开源的企业级应用框架,用于简化Java开发工作,通过依赖注入(DI)和面向切面编程(AOP)等核心功能支持程序的健壮性和易维护性。要配置Spring框架以连接SQL Server数据库,需要遵循几个关键步骤,从…

这一辈子大多数日子是无聊的

本文纯属个人观点,搏您一笑,请勿上升至道德高度今天晚上去食堂吃饭的路上拍下了这张照片(图一):密密麻麻的不知道什么植物,如同校园里的学生一样多,它们占领了照片的下部。岸边的树、教学楼,乃至于远方的天空,天…

Elasticsearch面试精讲 Day 11:索引模板与动态映射 - 指南

Elasticsearch面试精讲 Day 11:索引模板与动态映射 - 指南2025-09-20 19:44 tlnshuju 阅读(0) 评论(0) 收藏 举报pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !importan…

Go 实现验证码识别

步骤 1:安装 Go 语言 首先,确保你的系统已经安装了 Go 语言。如果没有安装,可以从 Go 官网 下载并安装。 安装后,验证是否成功: 更多内容访问ttocr.com或联系1436423940 go version 步骤 2:安装 Tesseract OCR 我…

跳出 AI 编程的「兔子洞」,4 个实战策略帮你解决90%的死循环

在和 AI 协作编程的时候,你肯定遇到过这样一种情况: 使用 Claude Code 或者 Codex 信心满满的实现一个功能之后,结果你一运行,直接报错。 于是你把错误信息直接复制粘贴回给 AI,它态度好的一笔,立马道歉:非常抱…

用 PHP 和 Tesseract OCR 识别英文数字验证码

验证码是网页中常见的防止自动化攻击的工具,通常它们由一串字母和数字组成,目的是确认用户是人类而不是机器人。很多情况下,验证码都是扭曲、加噪音的图像,这让计算机很难直接读取。幸运的是,借助 OCR(Optical C…

凝望深渊时,深渊也凝望着你(黑洞与摇钱树)

/dev/null与/dev/zero在 Linux 系统中,/dev/null 和 /dev/zero 是两个特殊的设备文件,由内核提供,用于特定的数据处理目的。 /dev/null 是“只进不出”的黑洞,用于丢弃数据。 /dev/zero 是“只出不进”的零源,用于…

详细介绍:《Vuejs设计与实现》第 16 章(解析器) 中

详细介绍:《Vuejs设计与实现》第 16 章(解析器) 中pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas&qu…

spring项目部署后为什么会生成 logback-spring.xml记录

spring项目部署后为什么会生成 logback-spring.xml记录pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas&q…

React+antd搭建监听localStorage变化多页面更新+纯js单页面table模糊、精确查询、添加、展示功能

React+antd搭建监听localStorage变化多页面更新+纯js单页面table模糊、精确查询、添加、展示功能2025-09-20 19:22 tlnshuju 阅读(0) 评论(0) 收藏 举报pre { white-space: pre !important; word-wrap: normal !im…

暗黑破坏神4 任务-坚守传统-向古老的雕像展示你坚守的传统

暗黑破坏神4 任务-坚守传统-向古老的雕像展示你坚守的传统 发一个“确定”的表情即可。

202509_NBWS_logbool

流量分析,正则匹配,布尔盲注,pyshark,Tags:流量分析,正则匹配,布尔盲注,pyshark,DASCTF 0x00. 题目 找到flag,格式为DASCTF{} 附件路径:https://pan.baidu.com/s/1GyH7kitkMYywGC9YJeQLJA?pwd=Zmxh#list/path=/CTF附…