商城网站开发价整站优化推广品牌

news/2025/10/5 3:50:06/文章来源:
商城网站开发价,整站优化推广品牌,seo网站导航建设技巧,网站右侧分享插件简介#xff1a; 本文由好未来资深数据平台工程师毛祥溢分享#xff0c;主要介绍批流融合在教育行业的实践。内容包括两部分#xff0c;第一部分是好未来在做实时平台中的几点思考#xff0c;第二部分主要分享教育行业中特有数据分析场景。 1.背景介绍 好未来介绍 好未来是… 简介 本文由好未来资深数据平台工程师毛祥溢分享主要介绍批流融合在教育行业的实践。内容包括两部分第一部分是好未来在做实时平台中的几点思考第二部分主要分享教育行业中特有数据分析场景。 1.背景介绍 好未来介绍 好未来是一家 2003 年成立教育科技公司旗下有品牌学而思现在大家听说的学而思培优、学而思网校都是该品牌的衍生2010 年公司在美国纳斯达克上市2013 年更名为好未来。2016 年公司的业务范围已经覆盖负一岁到 24 岁的用户。目前公司主营业务单元有智慧教育、教育领域的开放平台、K12 教育以及海外留学等业务。 好未来数据中台全景图 上图为好未来数据中台的全景图主要分为三层 ● 第一层是数据赋能层 ● 第二层是全域数据层 ● 第三层是数据开发层 首先数据赋能层。主要是商业智能、智慧决策的应用包括一些数据工具、数据能力以及专题分析体系数据工具主要包括埋点数据分析工具、AB 测试工具、大屏工具数据能力分析主要包括未来画像服务、未来增长服务、未来用户服务以及新校区的选址服务专题分析体系主要包企业经营类专题分析等等。 其次数据全域层。我们期望将全集团所有的事业部的数据进行深入的拉通和融合打通不同业务线、产品线的用户池从而盘活全集团的数据。具体的手段是 IDMapping将设备 id、自然人、家庭三个层级的 id 映射关系挖掘出来将不同产品上的用户数据关联起来。这样就能够形成一个打的用户池方便我们更好的赋能用户。 最后数据开发层。数据开发通过一些列的平台承载了全集团所有的数据开发工程主要包括数据集成、数据开发、数据质量、数据服务、数据治理等服务。我们今天要分享的实时平台就是在数据开发中。 2.好未来 T-Streaming 实时平台 实时平台构建前的诉求 实时平台在构建之初我们梳理了四个重要的诉求。 ● 第一个诉求是期望有一套统一的集群通过提供多租户资源隔离的方式提高资源利用率解决多个事业部多套集群的问题。 ● 第二个诉求是期望通过平台的方式降低实时数据开发的门槛从而能够覆盖更多的开发者。 ● 第三个诉求是期望能够提供通用场景的解决解方案提高项目的复用性避免每个事业部都开发相同场景的分析工具。 ● 第四个诉求是对作业进行全方位的生命周期管理包括元数据和血缘一旦有一个作业出现异常我们可以快速分析和定位影响范围。 实时平台功能概述 现在我们平台已经是一个一站式的实时数据分析平台包括了数据集成、数据开发、作业保障、资源管理、数据安全等功能。 ● 在数据集成方面我们支持数据库、埋点数据、服务端日志数据的集成为了能够提高数据集成的效率我们提供了很多的通用模板作业用户只需要配置即可快速实现数据的集成。 ● 在数据开发方面我们支持两种方式的作业开发一种是 Flink SQL 作业开发、一种是 Flink Jar 包托管在 Flink SQL 开发上我们内置了很多 UDF 函数比如可以通过 UDF 函数实现维表 join也支持用户自定义 UDF并且实现了 UDF 的热加载。除此之外我们也会记录用户在作业开发过程中的元数据信息方便血缘系统的建设。 ● 在作业保障方面我们支持作业状态监控、异常告警、作业失败之后的自动拉起作业自动拉起我们会自动选择可用的 checkpoint 版本进行拉起同时也支持作业在多集群之间的切换。 ● 在资源管理方面我们支持平台多租户每个租户使用 namespace 进行隔离、实现了不同事业部、不同用户、不同版本的 Flink 客户端隔离、实现了计算资源的隔离。 ● 在数据安全方面我们支持角色权限管理、表级别权限管理、操作审计日志查询等功能。 以上就是我们平台的功能在赋能业务的同时我们也还在快速迭代中期望平台简单好用稳定可信赖。 实时平台的批流融合 接下来说一下平台建设中的一些实践第一个是批流融合。 我们先理清楚批流融合是什么 批流融合可以分为两个概念一个是 Flink 提出的批流融合具体的理解就是一个 Flink SQL 既可以作用于流数据、也可以作用于批数据通过保证计算引擎一致从而减少结果数据的差异这是一个技术层面上的批流融合。另个一概念是我们内部提出来的那就是架构层面的批流融合。具体的操作手法就是通过 Flink 作业保证数据仓库 ODS 层的实时化然后提供小时级别、分钟级别的调度从而提高数据分析的实时化。 为什么我们会提出架构上的批流融合主要我们看到行业发展的两个趋势。 ● 第一个趋势是数据集成的实时化和组件化比如 Flink 集成 Hive、Flink CDC 的持续完善和增强这样我们做数据集成的时候就会变得非常简单。 ● 第二个趋势是实时 OLAP 引擎越来越成熟比如 Kuduimpala、阿里云的 Hologres、湖仓一体的方案。 这两个趋势让用户开发实时数据会变得越来越简单用户只需要关注 SQL 本身就可以。 如上图所示我们有三个类型的实时数仓一个是基于 Hive 的、一个是基于实时 OLAP 引擎的、一个是基于 Kafka 的。其中蓝色线条就是我们 ODS 层实时化的具体实现。我们提供了一个统一的工具可以将实时的将数据写入到 Hive、实时 OLAP 引擎、当然还有 Kafka。这个工具使用起来比较简单如果是 MySQL 数据的同步用户只需要输入数据库名称和表名就可以了。 通过 ODS 层实时化的工具我们就可以在 Hive、实时 OLAP 引擎、Kafka 中构建实时数仓。 ● 如果是 Hive 实时数仓我们会使用 Flink 将实时的增量数据写入到 ODS 层然后提供一个定时 merge 的脚本用来 merge 增量数据和历史数据从而保证 ODS 层的数据是最新最全的。配合 airflow 小时级别的调度能力用户就可以得到一个小时级别的数仓了。 ● 如果是类似于 Kudu / Hologres 这样的实时 OLAP 引擎我们会先把离线数据从 Hive 中导入到实时 OLAP 引擎中然后使用 Flink 将实时的增量数据写入到 ODS 层写入的方式推荐使用 upsert 这样的特性这样用户就能够得到一个纯实时的数仓了。配合 airflow 分钟级别的调度能力用户就可以得到一个分钟级别的数仓了。 ● 基于 Kafka 构建实时数仓就是非常经典的架构了开发成本也比较高一些除了必须要秒级更新的分析场景我们不太建议用户使用。当然在 2021 年的时候我们也会去做 Flink 批流一体解决方案让用户有更多选择方式的同时让整个实时数仓变得更加简单。 以上就是我们对批流融合的思考和实践通过这种架构层面的批流融合原来需要开发一个月的实时需求现在 2 天就差不多能完成。大大降低了开发实时数据的门槛提高了数据分析的效率。 实时平台 ODS 层实时化 说一下 ODS 层实时化我们具体是怎么做的。 要想把 ODS 层数据实时化我们需要解决两个问题第一个是离线数据的初始化问题第二个是增量数据如何写入的问题。离线数据导入比较好做如果数据源是 MySQL我们可以使用 DataX 或者 Spark 作业的方式将 MySQL 的全量数据导入到 Hive 中而实时增量数据的写入我们需要有两个步骤第一个步骤是将 MySQL 的 binlog 采集到 Kafka第二个步骤是将 Kafka 的数据使用Flink作业导入到 Hive。这样算下来要解决 ODS 层实时化的问题我们就需要一个离线初始化的作业一个增量数据采集的作业一个增量数据写入的作业也就是需要 3 个作业。 在我们的平台上我们对 ODS 层的 3 个作业进行了封装和统一调度用户只需要输入一个数据库名称和表的名称就能完成 ODS 层实时化的工作。 以上就是我们批流融合中 ODS 层实时化的实现过程。 实时平台 Flink SQL 开发流程 image.png 我们另外一个实践就是对 Flink SQL 的作业封装。先看一下在我们平台上进行 Flink SQL 开发的整体流程。 从左往右看数据源中的数据会通过 Maxwell、canal 这样的工具采集到 Kafka采集到 Kafka 的原始数据格式并不是统一的所以我们需要将 Kafka 中的数据进行统一格式化处理我们默认支持埋点数据格式、canal 数据格式、maxwell 数据的解析也支持用户自己上传 Jar 包进行数据解析解析得到的标准化数据就会再次发送到 Kafka。 然后我们会使用 Flink SQL 作业来消费 Kafka 的数据进行 SQL 脚本的开发。这里的 SQL 脚本开发和原生的 Flink SQL 的脚本开发有一点不一样原生的 SQL 脚本开发用户需要编写 Source 信息、Sink 信息在我们平台上用户只需要写具体的 SQL 逻辑就可以了。 那用户写完 SQL 之后会将 SQL 作业信息提交到我们封装好的 Flink SQL 执行作业上最后通过我们封装的 SQL 引擎将作业提交的 Flink 集群上去运行。后面将介绍我们是怎么封装的。 以上就是在我们平台上进行 Flink SQL 开发的流程出了 Flink 作业本身的开发和提交平台也会保留与作业有关的各种输入、输出的 schema 信息。比如业务数据库表的 schema 信息经过同意加工之后的 schema 信息数据输出的表的 schema 信息通过这些记录后期我们排查问题的时候就能够快速梳理出作业的来龙去脉和影响范围。 实时平台 Flink SQL 开发过程 在我们平台上开发 Flink SQL 作业只需要三个步骤 ● 第一个步骤确认 Kafka 的 Topic 是否已经注册过了如果没有注册就需要用户手动注册下完成注册后我们会把 Topic 的数据解析出来将字段信息保存起来。 ● 第二步使用户编写 SQL刚才说过用户只需要写具体的 SQL 逻辑不需要写 Source 和 Sink 信息。 ● 第三步是用户指定将数据输出到哪里现在平台可以支持同时指定多个 Sink 存储设备比如将计算好的数据同时写入到 Hive、Holo 等存储。 通过以上三个步骤的配置用户就可以提交作业了。 接下来说一下我们是怎么做的我把整个执行过程分为 2 个阶段 10 个步骤。 第一个阶段就是作业准备阶段第二个阶段就是 SQL 执行阶段。 ■ 作业准备阶段 ● 第一步用户在页面数据 SQL 和指定 Sink 信息。 ● 第二步SQL 解析及校验过程当用户提交 SQL 时我们会对 SQL 进行解析看看 SQL 中用到的 Source 表和 UDF 是否在平台中注册过。 ● 第三步推测建表我们会先运用下用户的 SQL然后得到 SQL 的返回结果根据结果数据生成一些建表语句最后通过程序自动到目标 Sink 存储上去建表。 ● 第四步拼装 Flink SQL 的脚本文件得到一个有 Source、SQL、Sink 三要素的脚本文件。 ● 第五步作业提交这里会把 Flink SQL 文件提交到我们自己执行引擎中。 ■ SQL 执行阶段 ● 第一步是会初始化 StreamTableAPI然后使用 connect 方法注册 Kafka SourceKafka 的 Source 信息需要指定数据解析的规则和字段的 schema 信息我们会根据元数据自动生成。 ● 第二步是使用 StreamTableAPI 注册 SQL 中使用到的维表和 UDF 函数UDF 函数包括用户自己上传的 UDF 函数。 ● 第三步是使用 StreamTable API 执行 SQL 语句如果有视图也可以执行视图。 ● 第四步是一个比较关键的步骤我们会把 StreamTabAPI 转成 DataStream API。 ● 第五步就是在 DataStream 的基础上 addSink 信息了。 以上是两个阶段的执行过程通过第二个阶段用户的 SQL 作业就会真正的运行起来。 实时平台原生作业与模板任务 上面分享了我们的 Flink SQL 作业如何开发和运行接下来说一下我们平台对 JAR 包类型作业的支持。 在我们平台上我们支持用户自己上传 JAR 包作业然后在我们平台上进行管理。与此同时为了提高代码通常场景的复用性我们开发了很多模板作业比如支持 Maxwell 采集的 binlog 直接写入到 Hive、Kudu、Holo 等存储设备支持阿里云 SLS 日志写入到各种 OLAP 引擎。 实时平台混合云部署方案 讲一下混合云部署方案和平台技术架构。 我们平台现在支持将作业提交到阿里云机房、自建机房中并且作业可以在两个机房中来回切换。为了要有这个功能呢? 今年年初随着疫情的爆发互联网在线教育涌入了大量的流量为了应对暴增的流量春节期间我们采购了上千台机器进行紧急的部署和上线后来疫情稳定住了之后这些机器的利用率就比较低了为了解决这个问题我们平台就支持了混合云部署方案高峰期的时候作业可以迁移到阿里云上运行平常就在自己的集群上运行既节约了资源又保证了弹性扩容。 实时平台技术架构 接下来说一下平台的技术架构。 我们是一个前后端分离的项目前端使用 vueelmentui、服务端使用 springboot不同的机房里面我们会部署一个后端服务的实例。任务提交到不同的机房主要通过转发层的 nginxlua 来实现的。平台上任务的提交、暂停、下线操作都是通过驱动层来完成的驱动层主要是一些 shell 脚本。最后就是客户端了在客户端上我们做了 Namespace/用户/Flink 版本的隔离。 3.K12 教育典型分析场景 续报业务介绍 我们聊一个具体的案例案例是 K12 教育行业中典型的分析场景用户续报业务。 先说下什么是续报续报就是重复购买用户购买了一年的课程我们期望用户购买二年的课程。为了用户购买课程我们会有一个集中的时间段用来做续报每次持续一周左右一年四次。 因为续报周期比较集中时间比较短暂每次做续报业务老师对实时续报数据的需求就特别迫切。 为此我们做了一个通用的续报解决方案来支持各事业部的续报动作。要做实时续报有几个挑战。 ● 第一个挑战是计算一个用户的订单是否是续报需要依赖这个用户历史上所有的订单也就是需要历史数据参与计算。 ● 第二个挑战就是一个订单的变化会影响其它订单的变化是一个连锁效应。比如用户有 5 个订单编号为 345 的订单都是续报状态如果用户取消了编号为 3 的订单订单 4 和订单5的续报状态就需要重新计算。 ● 第三个挑战是维度变化很频繁比如用户上午的分校状态是北京下午的分校状态可能就是上海上午的辅导老师是张三下午的辅导老师就是李四频繁变化的维度给实时汇总数据带来了挑战。 依赖历史数据、订单改变的连锁效应、频繁变化的维度这些挑战如果单个看都不算什么如果放在一起就会变得比较有意思了。 实时续报解决方案 先说下整体架构我们采用的批流融合方式来做的分成两条线一条线是分钟级实时续报数据计算一条是秒级实时续报数据计算。计算好的数据放在 MYSQL 中用来做大屏和 BI 看板。 先看下蓝色的这条线我们会把 Hive 中的离线数据导入到 Kudu 中离线数据都是计算好的订单宽表。然后会使用 Flink 作业把新增的订单做成宽表写入到 Kudu 中这样 Kudu 里面就会有最新最全的数据。配合 4 分钟的调度我们就提供了分钟级的实时续报数据。 在看第一条橙色的线条这条线上有两个 Flink 作业一个是 ETL Job一个是 Update Job。 ETL job 会负责静态维度的拼接与续报状态的计算静态维度拼接我们是直接访问 MySQL然后缓存在 JVM 中。续报状态的计算需要依赖历史数据ETL Job 会将所有的订单数据加载到 JVM 中具体的实现方法是我们自定义了一个 partitioncustom 方法对所有的历史数据进行了分片下游的每个 Task 缓存一个分片的数据。通过将数据加载到内存中我们大大的加快了 Flink 实时计算的速度。 ETL Job 的计算的数据会有两个输出一个是输出到 Kudu用来保证 Kudu 中的数据最新最全两个一个数据是 KafkaKafka 中有一个 Topic 记录的是是当前订单的变化导致了哪些订单或者维度变化的信息。 接在 Kafka 后面的程序就是 Update Job专门用来处理受影响的订单或者维度直接去修改 MySQL 中相关的统计数据。 这样我们就通过 2 个 Flink 作业实现的实时续报的计算。 最下面的一条线是实时维度的数据变更的处理维度变更的数据会发送到 Kafka中然后使用 Flink 进行处理看看维度的变化影响了哪些数据的统计最后将受影响的订单发送到受影响的 Topic 中由 Update Job 来重新计算。 以上就是我们实时续报的整体解决方案如果有教育行业的朋友听到这个分享或许可以参考下。 实时续报稳定性保障 我们看看这个通用的解决方案上线之后有哪些保障。 ● 第一个保障是异地双活我们在阿里云和自建机房都部署了一套续报程序如果其中一套有异常我们切换前端接口就可以了。如果两个机房的程序都挂了我们重零开始启动程序也只需要 10 分钟。 ● 第二个保障是作业容错我们有两个 Flink 作业这两个作业随停随启不影响数据的准确性。另外一点就是我们缓存了所有订单数据在 JVM 中如果数据量暴涨我们只需要改变 ETL 程序的并行度就可以不用担心 JVM 内存溢出。 ● 第三个保障是作业监控我们支持作业的异常告警和失败后的自动拉起也支持消费数据延迟告警。 通过以上保障措施实时续报程序经过了几次续报周期都比较平稳让人很省心。 4.展望与规划 上述内容详细介绍了好未来当前业务及技术方案总结而言我们通过多租户实现各事业部资源隔离、通过批流融合的架构方案解决分析实时化、通过 ODS 层实时化解决数据源到 OLAP 的数据集成问题、通过 Flink SQL 封装降低实时数据开发门槛、通过模板任务提供通用场景解决方案、通过混合云部署方案解决资源的弹性扩容、通过实时续报解决方案覆盖相同场景的数据分析。 最后来看一下我们展望和规划。接下来我们要继续深化批流融合强化混合云部署提高数据分析的时效性和稳定性。支持算法平台的实时化数据应用的实时化提高数据决策的时效性。 作者阿里云实时计算Flink 原文链接  本文为阿里云原创内容未经允许不得转载

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/927835.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

wordpress更改中文版后还是英文徐州百度seo排名

🚀个人主页:为梦而生~ 关注我一起学习吧! 💡专栏:机器学习 欢迎订阅!相对完整的机器学习基础教学! ⭐特别提醒:针对机器学习,特别开始专栏:机器学习python实战…

网站建设xml下载域名网站注册认证

中断 打断CPU执行正常的程序,转而处理紧急程序,然后返回原暂停的程序继续运行,就叫中断。 在确定时间内对相应事件作出响应,如:温度监控(定时器中断)。故障处理,检测到故障&#x…

如何建立自已的购物网站深圳网站开发团队

在云计算时代大环境的影响,各大企业也都企图将云计算融入企业业务中,智能化不只可以提高企业产能、提高服务效率,更能发掘更高的品牌价值。云计算不断深入企业内部,尤其在劳动密集型的产业中,优势更加明显。以电销为例…

1万网站建设费入什么科目个人网站html源码

目 录 摘 要 I ABSTRACT II 目 录 II 第1章 绪论 1 1.1背景及意义 1 1.2 国内外研究概况 1 1.3 研究的内容 1 第2章 相关技术 3 2.1 nodejs简介 4 2.2 express框架介绍 6 2.4 MySQL数据库 4 第3章 系统分析 5 3.1 需求分析 5 3.2 系统可行性分析 5 3.2.1技术可行性:…

域名注册好了如何做网站it公司排名

Java中常用的类,包,接口包名说明java.lang该包提供了Java编程的基础类,例如 Object、Math、String、StringBuffer、System、Thread等,不使用该包就很难编写Java代码了。java.util该包提供了包含集合框架、遗留的集合类、事件模型、…

城市绿化建设英文网站深圳航空公司官方网站

文章作者:代工 来源网站:NX CAM二次开发专栏 简介: UG\NX CAM二次开发 查询工序所在的几何组TAG UF_OPER_ask_geom_group 效果: 代码: void MyClass::do_it() { int count=0;tag_t * objects;UF_UI_ONT_ask_selected_nodes(&count, &objects);for (in…

php在网站开发中的应用高端网站建设熊掌号

图像是获取信息以及探知世界的重要媒介。近年来,传感科技与成像技术实现了跨越式发展,促使图像获取在质与量上均获得了显著提升。在多样化成像手段中,光谱成像技术是成像科技的重要组成部分,是人类借助光这一能量手段探测物质特性…

网站建设及维护费算业务宣传费企业融资方式有哪几种

回顾小夕在文章《逻辑回归》中详细讲解了逻辑回归模型,又在《Sigmoid与Softmax》中详细讲解了Sigmoid的实际意义(代表二类分类问题中,其中一个类别的后验概率)。至此,我们已经比较透彻的理解了逻辑回归模型假设函数(也…

wordpress.org 插件廊坊seo技巧

写简历的基本目的和策略 大部分情况下,写简历是找工作的第一步,考虑到第二步就是面试,那么简历就是敲门砖,为了让企业认识到你的价值,必须把自己的真实水平描述出来,展现出你有能力应对这份工作。甚至要体现…

信宜做网站设置seo主要做什么工作

Hi i,m JinXiang ⭐ 前言 ⭐ 本篇文章主要介绍在在JavaScript中location常用属性和方法以及部分理论知识 🍉欢迎点赞 👍 收藏 ⭐留言评论 📝私信必回哟😁 🍉博主收将持续更新学习记录获,友友们有任何问题可…

玩转树莓派屏幕之三:lvgl移植到树莓派

一、背景 由于前一篇的文章玩转树莓派屏幕之二:自定义屏幕显示中使用了python绘制图片,再将图片显示到屏幕的方式。只能用于简单显示一些文字,内容不够丰富。 自动动手去从0实现一个显示程序,肯定不显示的,需要了…

商品网站建设设计思路小说网站排名怎么做

目录 系列文章目录 前言 一、配置相关环境 二、创建工作空间 1.创建工作空间并初始化 2.进入 src 创建 ros 包并添加依赖 三、HelloWorld(C版) 1.进入 ros 包的 src 目录编辑源文件 2.编辑 ros 包下的 Cmakelist.txt文件 3.进入工作空间目录并编译 四 运行程序 五 …

enthalpy/entropy

Алексей Экимов — единственный россиянин, получивший Нобелевскую премию по химии в 2023 году за технологии нанок…

Day26自定义异常

package Demo2; //自定义异常类 public class Myexception extends Exception {//传递数字>10private int detail;public Myexception(int a) {this.detail = a;}//重写toString打印异常信息@Overridepublic String…

重庆潼南网站建设公司wordpress浏览次数插件

该文章专注于面试,面试只要回答关键点即可,不需要对框架有非常深入的回答,如果你想应付面试,是足够了,抓住关键点 面试官:MySQL中TEXT数据类型的最大长度 在MySQL中,TEXT数据类型用于存储较大…

科技公司手机端网站定制网站建设功能报价表模板

iMazing是一款功能强大的iPhone和iPad管理工具,确实可以作为iTunes的替代品进行数据备份。以下是一些关于iMazing的主要特点和功能: 设备备份:iMazing可以备份iOS设备上的所有数据,包括照片、视频、音乐、应用程序等。与iTunes相比…

谈谈redis的热key问题如何解决

引言 讲了几天的数据库系列的文章,大家一定看烦了,其实还没讲完。。。(以下省略一万字)。 今天我们换换口味,来写redis方面的内容,谈谈热key问题如何解决。 其实热key问题说来也很简单,就是瞬间有几十万的请求去访…

Microsoft Agent Framework (预览) 入门:让所有的开发者轻松创建 AI Agents

Microsoft Agent Framework (预览) 入门:让所有的开发者轻松创建 AI Agents翻译:https://devblogs.microsoft.com/dotnet/introducing-microsoft-agent-framework-preview/ 构建 AI 代理并非难事。然而,许多开发者却…

公益网站怎么做网站诊断方法

前言 一般情况下,多数移动开发者使用的是数据线连接电脑,进行各种移动设备的调试,更有胜者,非常迷恋模拟器,模拟器它好不好,答案是好,因为直接运行在电脑上,直接操作,调试…

免费送的广告怎么在网站上做wordpress 数据调用api接口

Redis 发布订阅 Redis 发布订阅 (pub/sub) 是一种消息通信模式:发送者 (pub) 发送消息,订阅者 (sub) 接收消息。Redis 客户端可以订阅任意数量的频道。 Redis 有两种发布订阅模式 基于频道(Channel)的发布订阅基于模式&#xff…