哪个网站做恒生指数最安全如何将网站提交给百度

news/2025/10/4 14:23:13/文章来源:
哪个网站做恒生指数最安全,如何将网站提交给百度,证件查询网入口,怎么直播带货卖东西目录 一、实时数仓的需求与挑战 二、构建极速易用的实时数仓架构 三、解决方案 3.1 如何实现数据的增量与全量同步 3.1.1 增量及全量数据同步 3.1.2 数据一致性保证 3.1.3 DDL 和 DML 同步 Light Schema Change Flink CDC DML 和DDL同步 3.2 如何基于Flink实现多种数…  目录 一、实时数仓的需求与挑战 二、构建极速易用的实时数仓架构 三、解决方案 3.1 如何实现数据的增量与全量同步 3.1.1 增量及全量数据同步 3.1.2 数据一致性保证 3.1.3 DDL 和 DML 同步 Light Schema Change Flink CDC DML 和DDL同步 3.2 如何基于Flink实现多种数据集成 3.3 如何选择数据模型 3.3.1 DUPLICATE 明细模型 3.3.2 AGGREGATE 聚合模型 3.3.3 UNIQUE KEY 主键模型 3.4 如何构建数仓分层 3.4.1 微批调度 3.4.2 物化视图与Rollup 3.4.3 多表物化视图 3.5 如何应对数据更新 3.5.1 高并发数据更新 3.5.2 部分列更新 3.6 如何进一步提升查询性能 3.6.1 智能物化视图 3.6.2 分区分桶裁剪 3.6.3 索引查询加速 3.6.4 执行层查询加速 四、行业最佳实践 4.1 跨境电商 4.2 运营服务商 4.3 供应链企业 原文大佬的这篇DorisFlink构建实时数仓的实战文章整体写的很深入这里直接摘抄下来用作学习和知识沉淀。 本篇文章介绍如何基于Doris和Flink快速构建一个极速易用的实时数仓包括数据同步、数据集成、数仓分层、数据更新、性能提升等方面的具体应用方案。 一、实时数仓的需求与挑战 先介绍一下传统的数据架构如何设计的、又存在哪些痛点问题。下图为传统的数据架构如果从数据流的角度分析传统的数据处理架构会发现从源端采集到的业务数据和日志数据主要分为实时和离线两条链路 在实时数据部分通过Binlog方式将业务数据库中的数据变更CDCChange Data Capture采集到实时数仓。同时通过Flume -Kafka-Sink对日志数据进行实时采集当不同来源的数据都采集到实时存储系统后便可以基于实时存储系统来构建实时数仓。在实时数仓的内部仍然会遵守传统数仓分层理论将数据分为 ODS 层、DWD 层、DWS 层、 ADS 层以实现最大程度的模型复用。在离线数据部分通过DataX定时同步的方式批量同步业务库RDS中的数据。当不同来源的数据进入到离线数仓后便可以在离线数仓内部依赖Spark SQL 或Hive SQL 对数据进⾏定时处理分离出不同层级ODS 、DWD 、ADS 等的数据并将这些数据存在⼀个存储介质上⼀般会采用如 HDFS 的分布式文件系统或者 S3 对象存储上。通过这样的⽅式离线数仓便构建起来了。与此同时为了保障数据的一致性通常需要开启数据清洗任务使用离线数据对实时数据进行清洗和定期覆盖保障数据最终的一致性。 从技术架构的角度对传统数据技术栈进行分析会发现为了迎合不同场景的需求往往会采用多种技术栈例如对于 OLAP 场景的多维分析一般使⽤ Doris 或 Kylin、 Druid。除此之外为应对半结构化数据的分析需求例如日志分析与检索场景通常会使⽤ ES 进行分析面对高并发点查询的 Data Serving 场景会使⽤ HBase等。其中涉及到的数据组件有数十种高昂的使用成本和组件间兼容、维护及扩展带来的繁重压力成为企业必须要面临的问题。 从上述介绍即可知道传统的数据架构存在几个核心的痛点问题 传统数据架构组件繁多维护复杂运维难度非常高。计算、存储和研发成本都较高与行业降本提效的趋势背道而驰。同时维护两套数据仓库实时数仓和离线数仓和两套计算实时数据量和实时计算任务数据时效性和一致性无法保证。 在此背景下需要构建⼀个“极速、易用、统一、实时”的数据架构来解决这些痛点 极速更快的查询速度最大化提升业务分析人员的效率易用对于用户侧的使用和运维侧的管控都提供了极简的使用体验统一异构数据与分析场景的统一半结构化和结构化数据可以统一存储多分析场景可以统一技术栈实时端到端的高时效性保证发挥实时数据的价值 二、构建极速易用的实时数仓架构 采取Doris和Flink 来构建极速易用的实时数仓具体架构如下图所示。多种数据源的数据经过flink cdc 集成或flink job加工件处理后入库到Doris或者Hive等湖仓中最终基于Doris提供统一的查询服务。 在数据同步上通过Flink CDC将RDS的数据实时同步到Doris。通过Routine Load将kafka等消息系统的数据实时同步到Doris在数仓分层上ODS层通常选择明细模型构建DWD层可以通过SQL调度任务对ODS数据抽取并获取DWS和ADS层则可以通过物化视图和Rollup进行构建。在数据湖上 Doris ⽀持为 Hive、Iceberg 、Hudi 以及Delta Laketodo提供联邦分析和湖仓加速的能⼒。在数据应用上Apache Doris 既可以承载批量数据加工处理的需求也可以承载高吞吐的 Adhoc 和高并发点查询等多种应⽤场景。 三、解决方案 3.1 如何实现数据的增量与全量同步 3.1.1 增量及全量数据同步 在全量数据和增量的同步上采取了Flink CDC来实现。其原理非常简答Flink CDC实现了基于Snapshot的全量数据同步基于 BinLog的实时增量数据同步。全量数据同步和增量数据同步可以自动切换因此在数据迁移过程中只需要配置好同步的表即可。当Flink任务启动时优先进行历史表的数据同步同步完成后自动切换成实时同步。 3.1.2 数据一致性保证 如何保证数据一致性是大家重点关注的问题之一那么在新架构是如何实现的呢 数据⼀致性⼀般分为“最多⼀次” 、“⾄少⼀次”和“精确⼀次”三种模型。 最多⼀次At-Most-Once发送⽅仅发送消息不期待任何回复。在这种模型中数据的⽣产和消费过程中可能出现数据丢失的问题。 ⾄少⼀次At-Least-Once发送⽅不断重试直到对⽅收到为⽌。在这个模型中⽣产和消费过程都可能出现数据重复。 精确⼀次Exactly-Once能够保证消息只被严格发送⼀次并且只被严格处理⼀次。这种数据模型能够严格保证数据⽣产和消费过程中的准确⼀致性。 Flink CDC通过Flink Checkpoint 机制结合Doris两阶段提交可以实现端到端的Exactly Once语义具体过程分为四步 事务开启Flink Job启动及Doris事务开启当Flink任务启动后Doris Sink 会发起 Precommit 请求随后开启写⼊事务。数据传输Flink Job的运行和数据传输在Flink Job运行过程中Doris Sink不断从上游算子获取数据并通过 HTTP Chunked 的⽅式持续将数据传输到 Doris。事务预提交当Flink开始进行Checkpoint时Flink会发起Checkpoint请求此时Flink各个算子会进行Barrier对齐和快照保存Doris Sink发出停止 Stream Load 写⼊的请求并发起一个事务提交请求到Doris。这步完成后这批数据已经完全写入Doris BE中但是BE没有进行数据发布前对用户是不可见的。事务提交当Flink的Checkpoint完成之后将通知各个算子Doris发起一次事务提交到Doris BEBE对此次写入的数据进行发布最终完成数据流的写入。 综上可知利用 Flink CDC结合Doris 两阶段事务提交保证了数据写入一致性。需要注意的是在该过程中可能遇到一个问题如果事务预提交成功、但 Flink Checkpoint 失败了该怎么办针对该问题Doris 内部支持对写⼊数据进⾏回滚(Rollback)从⽽保证数据最终的⼀致性。 3.1.3 DDL 和 DML 同步 随着业务的发展部分用户可能存在RDS Schema的变更需求。当RDS表结构发生变更时用户期望Flink CDC不但能够将数据变化同步到Doris也希望将 RDS 表结构的变更同步到 Doris⽤户则无需担⼼ RDS 表结构和 Doris 表结构不⼀致的问题。 Light Schema Change Apache Doris 1.2.0 已经实现了  Light Schema Change 功能可满⾜ DDL 同步需求快速⽀持 Schema 的变更。 Light Schema Change的实现原理相对简单对数据表的加减列操作不再需要同步更改数据文件仅需要再FE中更新元数据即可从而实现毫秒级的Schema Change 操作。由于 Light Schema Change 只修改了 FE的元数据并没有同步给 BE。因此会产⽣ BE 和 FE Schema 不⼀致的问题。为了解决这种问题我们对 BE 的写出流程进⾏了修改具体包含三个⽅⾯。 1数据写入FE会将 Schema 持久化到元数据中当 FE 发起导⼊任务时会把最新的 Schema 一起发给 Doris BEBE 根据最新的Schema对数据进⾏写⼊并与 RowSet 进⾏绑定。将该 Schema 持久化到 RowSet 的元数据中实现了数据的各⾃解析解决了写⼊过程中 Schema 不⼀致的问题。 2数据读取FE ⽣成查询计划时会把最新的 Schema 附在其中⼀起发送给 BEBE 拿到最新的 Schema 后对数据进⾏读取解决读取过程中 Schema 发⽣不⼀致的问题。 3数据 Compaction当数据进⾏ Compaction 时我们选取需要进⾏ Compaction 的 RowSet中最新的Schema作为之后RowSet 对应的 Schema以此解决不同 Schema 上 RowSet 的合并问题 经过对 Light Schema Change 写出流程的优化后 单个 Schema Chang 从 310 毫秒降低到了 7 毫秒整体性能有近百倍的提升彻底的解决了海量数据的 Schema Change 变化难的问题。  Flink CDC DML 和DDL同步 有了 上述Light Schema Change 的保证Flink CDC 能够同时⽀持DML 和DDL 的数据同步。那么是如何实现的呢 1开启 DDL 变更配置在 Flink CDC 的 MySQL Source 侧开启同步 MySQL DDL 的变更配置在 Doris 侧识别 DDL 的数据变更并对其进⾏解析。 2识别及校验当 Doris Sink 发现 DDL 语句后Doris Sink 会对表结构进⾏验证验证其是否⽀持 Light Schema Change。 3发起 Schema Change 当表结构验证通过后Doris Sink 发起 Schema Change 请求到 Doris从⽽完成此次 Schema Change 的变化。 解决了数据同步过程中源数据⼀致性的保证、全量数据和增量数据的同步以及 DDL 数据的变更后一个完整的数据同步⽅案就基本形成了。  3.2 如何基于Flink实现多种数据集成 除了上文中所提及的基于 Flink CDC 进行数据增量/全量同步外我们还可以基于 Flink Job 和 Doris 来构建多种不同的数据集成方式 将Mysql中两个表的数据同步到Flink后在Flink内部进行多流Join完成数据打宽后将大宽表同步到Doris中。对上游的Kafka数据进行清洗在Flinkjob完成清洗后通过Doris-Sink写入到Doris中。对Mysql数据和Kafka数据在Flink内部进行多流Join将Join后的宽表结果写入Doris中。在Doris侧预先创建宽表将上游RDS中的数据根据Key写入使用Doris的部分列更新将多列数据写入到Doris的大宽表中。 3.3 如何选择数据模型 Doris针对不同场景提供了不同的数据模型分别为明细模型、聚合模型、主键模型。 3.3.1 DUPLICATE 明细模型 在某些多维分析场景下数据既没有主键也没有聚合需求Duplicate 数据模型可以满足这类需求。明细模型主要用于需要保留原始数据的场景如日志分析用户行为分析等场景。明细模型适合任意维度的 Ad-hoc 查询即席查询。虽然同样无法利用预聚合的特性但是不受聚合模型的约束可以发挥列存模型的优势只读取相关列而不需要读取所有 Key 列。 3.3.2 AGGREGATE 聚合模型 在企业实际业务中有很多需要对数据进行统计和汇总操作的场景如需要分析网站和 APP 访问流量、统计用户的访问总时长、访问总次数或者像厂商需要为广告主提供广告点击的总流量、展示总量、消费统计等指标。在这些不需要召回明细数据的场景通常可以使用聚合模型比如上图中需要根据门店 ID 和时间对每个门店的销售额实时进行统计。 3.3.3 UNIQUE KEY 主键模型 在某些场景下用户对数据更新和数据全局唯一性有去重的需求通常使用UNIQUE KEY 模型。在 UNIQUE 模型中会根据表中的主键进⾏Upsert 操作对于已有的主键做 Update 操作更新 value 列没有的主键做 Insert 操作比如图中我们以订单id为唯一主键对订单上的其他数据时间和状态进行更新。 3.4 如何构建数仓分层 由于数据量级普遍较大如果直接查询数仓中的原始数据需要访问的表数量和底层文件的数量都较多不同层级对数据或指标做不同粒度的抽象通过复用数据模型来简化数据管理压力利用血缘关系来定位数据链路的异常同时进一步提升数据分析的效率在Doris 中可以通过以下多种思路来构建数据仓库分层 3.4.1 微批调度 通过INSERT INTO SELECT 可以将原始表的数据进行处理和过滤并写入到目标表中这种SQL抽取数据的行为 一把是以微批形式进行例如15分钟一次的ETL计算任务通常发生在从ODS到dwd层数据的抽取过程中因此需要借助外部的调度工具例如Dolphinscheduler等来对ETL SQL进行调度。 3.4.2 物化视图与Rollup 物化视图本质是一个预先计算的过程可以在Base表上创建不同的物化视图或Rollup来对Base表进行聚合计算。通常在明细层到汇总层例如dwd层到dws层或 dws层到ads层的汇聚过程中可以使用物化视图以此实现指标的高度聚合。同时物化视图的计算是实时进行的因此站在计算的角度也可以将物化视图理解为一个单表上的实时计算过程。 3.4.3 多表物化视图 Doris 2.0将实现多表物化视图这一功能可以将带有 Join 的查询结果固化以供用户直接查询支持定时自动或手动触发的方式进行全量更新查询结果。基于多表物化视图这一功能的实现可以做更复杂的数据流处理比如数据源侧有 TableA、TableB、TableC在多表物化视图的情况下用户就可以将 TableA 和 TableB 的数据进行实时Join 计算后物化到 MV1 中。在这个角度上来看多表物化视图更像一个多流数据实时 Join 的过程。 3.5 如何应对数据更新 在实时数仓构建的过程中还需面临高并发写入和实时更新的挑战如何在亿级数据中快速找到需要更新的数据并对其进行更新⼀直都是大数据领域不断追寻的答案。 3.5.1 高并发数据更新 在Doris中通过Unique Key 模型来满足数据更新的需求同时通过MVCC多版本并发机制来实现数据的读写隔离。当新数据写入时如果不存在相同key的数据则会直接写入如果有相同key的数据则增加版本此时数据将多个版本的形式存在。后台会启动异步的Compaction进程对历史版本的数据进行清理当用户在查询时Doris会将最新版本对应的数据返回给用户这种设计解决了海量数据的更新问题。 在Doris中提供了Merge-on-Read和Merge-on-Write两种数据更新模式。 在此我们以订单数据的写入为例介绍 Merge-on-Read 的数据写入与查询流程三条订单数据均以 Append 的形式写⼊ Doris 表中 数据 Insert首先写入 ID 为 1,2,3 的三条数据 数据 Update当我们将订单 1 的 Cost 更新为 30 时其实是写⼊⼀条 ID 为 1Cost 为 30 的新版本数据数据通过 Append的形式写⼊ Doris 数据 Delete当我们对订单 2 的数据进行删除时仍然通过 Append ⽅式将数据多版本写⼊ Doris 并将 _DORIS_DELETE_SIGN 字段变为 1 则表示这条数据被删除了。当 Doris 读取数据时发现最新版本的数据被标记删除就会将该数据从查询结果中进⾏过滤。 Merge-on-Read的特点是写入速度比较快但是在数据读取过程中由于需要进行多路归并排序存在着大量非必要的CPU计算资源消耗和IO开销。 在1.2.0 版本中Doris在原有的Unique Key数据模型上增加了 Merge-on-Write的数据更新模式。Merge-on-Write兼顾了写入和查询性能在写入过程中引入了Delete Bitmap数据结构使用Delete Bitmap标记Rowset中某一行是否被删除为了保持Unique Key原有的语义Delete Bitmap也支持多版本。另外使用了兼顾性能和存储空间的 Row Bitmap将Bitmap中的MemTable一起存储在BE中每个Segment会对应⼀个 Bitmap。 写入流程 DeltaWriter先将数据Flush到磁盘 批量检查所有 Key在点查过程中经过区间树查找到对应的 RowSet。 在 RowSet 内部通过 BloomFilter 和 index进行高效查询。 当查询到 Key 对应的 RowSet 后便会覆盖 RowSet Key 对应的 Bitmap接着在 Publish 阶段更新 Bitmap从而保证批量点查 Key 和更新 Bitmap 期间不会有新的可见 RowSet以保证 Bitmap 在更新过程中数据的正确性。除此之外如果某个 Segment 没有被修改则不会有对应版本的 Bitmap 记录。 查询流程 当查询某⼀版本数据时 Doris 会从 LRU Cache Delete Bitmap 中查找该版本对应的缓存。 如果缓存不存在再去 RowSet 中读取对应的 Bitmap。 使⽤ Delete Bitmap 对 RowSet 中的数据进行过滤将结果返回。 Merge-on-Write该模式不需要在读取的时候通过归并排序来对主键进行去重这对于高频写入的场景而言大大减少了查询执行时的额外消耗。此外还能够支持谓词下推并能够很好利用Doris丰富的索引在数据IO层面就能够进行充分的数据裁剪大大减少数据的读取量和计算量因此在很多场景的查询中都有非常明显的性能提升。在真实场景的测试中通过 Merge-on-Write可以在保证数万QPS的高频Upsert 操作的同时可以实现性能 3-10 倍的提升。 3.5.2 部分列更新 部分列更新是一个比较普遍的需求例如广告业务中需要在不同的时间点对同一个广告行为展示、点击、转换等数据的更新。可以通过 Aggregate Key模型的replace_if_not_null实现。 3.6 如何进一步提升查询性能 3.6.1 智能物化视图 物化视图除了可以作为高度聚合的汇总层外更广泛的定位是加速相对固定的聚合分析场景。物化视图是指根据预定义的SQL分析语句执行预计算并将结算结果持久化到另一张对用户透明用户无感知但有实际存储的表中在需要同时查询聚合数据和明细数据以及匹配不同前缀索引的场景命中物化视图时可以获得更快的查询性能。 在使用物化视图时需要建立Base表并基于此建⽴物化视图同⼀张 Base表可以构建多个不同的物化视图从不同的维度进⾏统计。如果数据再物化视图中存在会直接查询物化视图如果在物化视图中不存在才会查询Base表。 在数据写入或更新时数据会在写入Base表的同时会写入物化视图从而保证物化视图和Base 表数据的完全⼀致性。 智能路由选择遵循最小匹配原则只有查询的数据集⽐物化视图集合⼩时才可能⾛物化视图。如上图所示智能选择过程包括选择最优和查询改写两个部分 选择最优 在过滤候选集过程中被执行的 SQL 语句通过 Where 条件进⾏判断Where 条件为advertiser1。由此可⻅物化视图和 Base 表都有该字段这时的选集是物化视图和 Base 表。 Group By 计算Group By 字段是 advertiser 和 channel这两个字段同时在物化视图和 Base 表中这时过滤的候选集仍然是物化视图和 Base表。 过滤计算函数比如执⾏ count(distinctuser_id)然后对数据进⾏计算由于 Count Distinct 的字段 user_id 在物化视图和 Base 表中都存在因此过滤结果仍是物化视图和 Base 表。 选择最优通过⼀系列计算发现查询条件⽆论是 Where 、Group By 还是 Agg Function 关联的字段结果都有 Base 表和物化视图因此需要进⾏最优选择。Doris 经过计算发现 Base 表的数据远⼤于物化视图即物化视图的数据更⼩。 由此过程可⻅如果通过物化视图进行查询查询效率更⾼。当我们找到最优查询计划就可以进⾏⼦查询改写将 Count Distinct 改写成 Bitmap 从⽽完成物化视图的智能路由。完成智能路由之后我们会将 Doris ⽣成的查询 SQL 发送到 BE 进⾏分布式查询计算。 3.6.2 分区分桶裁剪 Doris 数据分为两级分区存储 第一层为分区(Partition)目前支持 RANGE 分区和 LIST 分区两种类型, 第二层为 HASH 分桶(Bucket)可以按照时间对数据进⾏分区再按照分桶列将⼀个分区的数据进行 Hash 分到不同的桶⾥。在查询时则可以通过分区分桶裁剪来快速定位数据加速查询性能的同时实现高并发。 3.6.3 索引查询加速 除了分区分桶裁剪 还可以通过存储层索引来裁剪需要读取的数据量仅以加速查询 前缀索引在排序的基础上快速定位数据 Zone Map 索引维护列中 min/max/null 信息 Bitmap 索引通过 Bitmap加速去重、交并查询 Bloom Filter 索引快速判断元素是否属于集合 Invert 倒排索引支持字符串类型的全文检索 3.6.4 执行层查询加速 Doris 的MPP查询框架、向量化执行引擎以及查询优化器也提供了许多性能优化方式在此仅列出部分、不做详细展开 算子下推Limit、谓词过滤等算子下推到存储层 向量化引擎基于 SIMD 指令集优化充分释放 CPU 计算能力 Join 优化Bucket Shuffle Join、Colocate Join 以及 Runtime Filter 等 四、行业最佳实践 4.1 跨境电商 基于 Doris 构建实时数仓上游数据源来自 RDS 业务库、⽂件系统数据以及埋点日志数据。在数据接⼊过程中通过 DataX 进⾏离线数据同步以及通过 Flink CDC 进⾏实时数据同步在 Doris 内部构建不同的数据分层最后在上层构建不同的数据应⽤比如自助报表、数据⼤屏。除此之外它基于应用平台构建了数据开发与治理平台完成了源数据管理、数据分析等操作。 使用收益 业务计算耗时从之前的两⼩时降低到三分钟。 全链路的更新报表的时间从周级别更新到⼗分钟级别。 Doris 高度兼容 MySQL报表迁移无压力开发周期从周级别降低至天级别。 4.2 运营服务商 数仓架构是通过 Flink CDC 将RDS的数据同步到 Doris 中同时通过 Routine Load 直接订阅 Kafka 中接入的日志数据然后在 Doris 内部构建实时数仓。在数据调度时 通过开源 DolphinScheduler 完成数据调度使⽤ PrometheusGrafana 进⾏数据监控。 使用收益 采⽤ FlinkDoris 架构体系后架构简洁、组件减少解决了多架构下的数据的冗余存储服务器资源节省了 30%数据存储磁盘占⽤节省了 60%运营成本⼤幅降低。基于该数仓架构在⽤户的业务场景上可以支持数万次的⽤户在线查询和分析。 4.3 供应链企业 在过去该企业采取了 Hadoop 体系使用组件⽐较繁多有 RDS、HBase、Hive、HDFS、Yarn、Kafka 等多个技术栈在该架构下查询性能无法得到有效快速的提升维护和开发成本一直居高不下。 使用收益 引入 Doris 之后将 RDS 的数据通过 Flink CDC 实时同步到 Doris ⾥服务器资源成本得到了很⼤的降低。数据的查询时间从 Spark 的 2~5 ⼩时缩短到⼗分钟查询效率也⼤⼤提升。在数据的同步过程中使⽤了 Flink CDCMySQL 全量加增量的数据同步⽅式同时还利⽤ Doris 的 Light Schema Change轻量表结构变更 特性实时同步 Binlog里的DDL表结构变更实现数据接⼊数仓零开发成本。 轻量表结构变更Light Schema Change 在Doris1.2版本中对数据表的加减列操作不需要同步更改数据文件仅需要在FE中更新元数据即可从而实现毫秒级的Schema Change操作。与此同时使得Doris在面对上游数据表维度变化时可以更加快速稳定实现表结构同步保证系统的高效且平稳运转。通过 Flink CDC可实现上游数据库到 Doris 的 DML 和 DDL 同步进一步提升了实时数仓数据处理和分析链路的时效性与便捷性。 参考文章 如何基于 Apache Doris 与 Apache Flink 快速构建极速易用的实时数仓解决方案

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/927219.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

002

002$(".postTitle2").removeClass("postTitle2").addClass("singleposttitle");002.C语言进制、ASCII码和基础数据类型 数字进制表示法 在日常生活中,我们计数往往使用十进制。然而在计…

网站超市源码哪个好找人做彩票网站有哪些

一、子查询&#xff1a; 1.语法&#xff1a; select 列名 from 表名 where 列名 比较运算符(>、<、) (子查询) 2.将子查询和比较运算符联合使用&#xff0c;必须保证子查询的返回结果不大于1条 3.子查询是一个嵌套在select,insert,update和delete语句或者其他子查询中的查…

网站登录页面怎么做的软件开发者英文

立方体纹理就是包含6个2D纹理的纹理.6个纹理有序排列在立方体的6个面.其可以通过方向向量采样立方体纹理上的纹素.创建立方体贴图跟创建2D贴图一样,但是绑定到GL_TEXTURE_CUBE_MAP上.glGenTextures(1, &CubeMapID); glBindTexture(GL_TEXTURE_CUBE_MAP, CubeMapID);立方体纹…

国际购物网站平台有哪些wordpress付费播放

前提要求 ubuntu下安装lxd 参考Rockylinux下安装lxd 参考LXC 源替换参考LXC 容器端口发布参考LXC webui 管理<

地方美食网站开发意义优秀网站配色

作者&#xff1a;轩辕之风O来源&#xff1a;编程技术宇宙-前言-程序员经常要面临的一个问题就是&#xff1a;如何提高程序性能&#xff1f;这篇文章&#xff0c;我们循序渐进&#xff0c;从内存、磁盘I/O、网络I/O、CPU、缓存、架构、算法等多层次递进&#xff0c;串联起高性能…

GenColoring - AI 免费涂色页生成器

GenColoring - AI 涂色页生成器上个月发现Nano Banana模型的图片编辑和生成能力都很不错,于是找了找是否有涂色页生成相关的应用,试用了几款后发现GenColoring的效果很满意,比其他的AI涂色页效果要好很多,而且每天…

zkSync Era在ETHDenver的技术盛宴:zkEVM与Layer2创新实践

本文详细介绍了zkSync作为ETHDenver 2023官方Layer2赞助商的技术活动安排,包括zkEVM开发工作坊、账户抽象黑客松、安全研讨会等核心技术内容,以及基于zkSync Era的食品代币实践案例。在ETHDenver与zkSync Era连接 zk…

linux网站开发电子商务网站数据库建设

这里我们使用Java的线程与锁来解析共享内存模型&#xff1b;做过java开发并且了解线程安全问题的知道&#xff0c;要使某段代码是线程安全的那必须要满足两个条件&#xff1a;内存可见性、原子性&#xff1b; 内存可见性 在JVM规定多个线程进行通讯是通过共享变量进行的&a…

农业科技工作服务站建站模板购物网站设计

http://www.jqdemo.com/525.html转载于:https://www.cnblogs.com/iqiao/p/4255515.html

Squarepoint Challenge (Codeforces Round 1055, Div. 1 + Div. 2)

A. Increase or Smash 题意:你有一个全\(0\)数组,每次可以使得数组全部加上一个数或者使得某些位置变为\(0\)。求变成\(a\)的最小操作数。 最少的操作方案是,先把\(a\)去重后排序,然后从大到小每次加\(a_i - a_{i-…

有做数学题的网站吗网站专题二级页怎么做

第 1 章&#xff1a;Yarn资源调度器 思考&#xff1a; 1、如何管理集群资源&#xff1f; 2、如何给任务合理分配资源&#xff1f; Yarn是一个资源调度平台&#xff0c;负责为运算程序提供服务器运算资源&#xff0c;相当于一个分布式的操作系统平台&#xff0c;而MapReduce等运…

软件工程第一次作业--关于未来规划和自我发展

这个作业属于哪个课程 202501 软件工程这个作业要求在哪里 <软件工程第一次团队作业>这个作业的目标 熟悉git协作和markdown语法,深入了解自己的能力并寻找发展方向学号 102301537一、团队网页 https://github.…

2025太阳能厂家推荐天津龙腾,太阳能热水系统,发电系统,光伏热系统,热水工程系统,预加热系统,中央热水系统,彩图发电系统,分户储水系统,分户计量系统推荐

2025 年国内新能源行业迎来高质量发展新阶段,光热与光伏技术协同应用成为主流趋势,政策持续推动可再生能源在建筑、工业等领域的深度渗透。随着 “双碳” 目标推进,市场对新能源综合解决方案的需求显著提升,不仅要…

集训模拟赛日志

因为要补题,所以开了这个,题目和代码什么存了看文件。 2025.10.1 T1 怎么这么难,好像比 T3,4 做的都久。 T3 是注意到合法区间左右端点递增,然后随便维护一下就行了,甚至可以多测询问子区间然后历史和。 T4 场上…

详细介绍:Nature Electronics:卡内基梅隆大学开放用于多模态皮肤反馈的皮肤贴附式触觉接口

详细介绍:Nature Electronics:卡内基梅隆大学开放用于多模态皮肤反馈的皮肤贴附式触觉接口pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !impor…

网站设计 知识产权wordpress page id

3月29日 qt打包APP操作 1 先在windows shell 中下载打包软件Pylnstaller pip install pyinstaller2 先进入py项目所在的位置&#xff0c;再执行以下代码(我用的qt版本是PySide6可以根据自己的情况修改) pyinstaller s02.py --noconsole --hidden-import PySide6.QtXml3 因为…

1688 商品采集 API 调用全流程分享:从准备到实操 - 实践

1688 商品采集 API 调用全流程分享:从准备到实操 - 实践pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas…

2025最新推荐化妆品代工公司排行榜:含 OEM / ODM / 一站式服务企业,助力品牌方精准选合作方

当前化妆品行业竞争愈发激烈,品牌方若想在市场中占据优势,选择靠谱的代工公司至关重要。但如今市面上化妆品代工企业数量繁杂,部分企业存在研发能力薄弱、生产标准不达标、服务体系不完善等问题,导致品牌方难以精准…

悟空博弈单元(WBUC)专题研究:面向可能性计算的结构化创新架构

悟空博弈单元(WBUC)专题研究:面向可能性计算的结构化创新架构1 引言:WBUC的诞生背景与范式迁移 在传统人工智能发展面临瓶颈的当下,一种全新的计算架构——悟空博弈单元(Wukong Bargaining Unit Chip,简称WBUC)…

完整教程:奢侈品牌限量版素材管理策略指南

完整教程:奢侈品牌限量版素材管理策略指南2025-10-04 14:01 tlnshuju 阅读(0) 评论(0) 收藏 举报pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: blo…