荆州企业网站建设wordpress自定义链接不能用

diannao/2026/1/23 2:15:56/文章来源:
荆州企业网站建设,wordpress自定义链接不能用,学生免费舆情监测平台官网,河南营销型网站1.参数配置优化 设定Hive参数有三种方式#xff1a; #xff08;1#xff09;配置Hive文件 当修改配置Hive文件的设定后#xff0c;对本机启动的所有Hive进程都有效#xff0c;因此配置是全局性的。 一般地#xff0c;Hive的配置文件包括两部分#xff1a; a#xff…1.参数配置优化 设定Hive参数有三种方式 1配置Hive文件 当修改配置Hive文件的设定后对本机启动的所有Hive进程都有效因此配置是全局性的。 一般地Hive的配置文件包括两部分 a用户自定义配置文件$HIVE_CONF_DIR/hive-site.xml b默认配置文件$HIVE_CONF_DIR/hive-default.xml.template # 当用户自定义配置后会覆盖默认配置。实际上因为Hive是作为Hadoop的客户端环境下启动而Hive的配置会覆盖 Hadoop的配置因此这类修改配置的方式不推荐使用。 2命令行参数配置 命令行参数配置就是启动Hive客户端或Server方式时可以在命令行添加-hiveconf paramvalue来设定参数。比如 hive --service hiveserver2 --hiveconf hive.root.loggerDEBUG,console需要注意的是只要通过Beeline连接的这个hiveserver2的客户端都具备这个配置参数的方式。 但这种配置方式有一个存在问题那就是命令行参数配置的作用域是所有请求的Sessions会话内有效即仅在当前窗口下生效一旦关闭窗口则失效。 3设定参数声明 通常地在Hive中设定参数声明需要使用到set关键字比如 -- 查看 set mapreduce.job.reduces; -- 设定reduce数量 set mapreduce.job.reduces 3;1参数设置优先级 参数声明 命令行参数 配置文件参数 2参数设置范围大小 配置文件参数 命令行参数 参数声明 一般情况下会在执行程序前使用set关键字来设定参数配置。 1.1 设定Fetch抓取策略 我们知道执行Hive时查询缓慢的主要原因是执行了MapReduce计算。因此 若想提高执行效率可以避免执行MapReduce程序。 简单地说设定了Fetch抓取策略的某些参数后Hive可以避免走MapReduce程序有效提升了执行效率。比如 -- 设置Fetch本地抓取策略 hive.fetch.task.conversion more;当Fetch的这个属性修改为more值后在全局查找、字段查找、limit查找等都不执行MapReduce计算。 hive.fetch.task.conversion属性值有3个选项 1hive.fetch.task.conversion more; [默认值] 可以保证在执行全表扫描、查询某几个列、执行简单查询、where条件且包括 limit操作时都不会走MR 2hive.fetch.task.conversion minimal; 保证执行全表扫描以及查询某几个列以及limit操作可以不走MR, 其他操作都会执 行MR 3hive.fetch.task.conversion none; 全部查询操作都执行MR强烈建议当调试程序结束后继续设定[hive.fetch.task.conversion more;]结果。 -- select * from tb_taobao_log; -- select * from tb_taobao_log where result_value0; -- 没有 走mr , 自动优化 -- set hive.fetch.task.conversion minimal; -- 4 -- select * from tb_taobao_log; -- minimal状态很简单就不走mr -- select * from tb_taobao_log where result_value0; -- 走mr, 没有优化 set hive.fetch.task.conversion none; -- 什么都不优化-- 5 select * from tb_taobao_log; select * from tb_taobao_log where result_value0; /* more: 普通查询、全表扫描、简单条件都不走mr, 自动优化; --执行效率提升 [默认] minimal: 全表扫描不走mr, 其他一般都走 none: 所有的查询操作都走mr程序 --底层 */ -- 恢复默认 set hive.fetch.task.conversion more;2Fetch抓取策略已默认设定为more因此当调试完程序后记得恢复默认值more。 1.2设定本地模式 在应用中大多数的Hadoop Job是需要Hadoop提供的完整可扩展性来处理大数据 集TB。不过有时Hive的输入数据量是非常小的。 在这种情况下为查询触发执行任务时消耗资源可能会比实际Job的执行时间要多的多。 对于大多数的这种情况Hive可以通过本地模式在单台机器上处理所有的任务。而对于小数据集执行时间可以明显被缩短。 用户可以通过设置hive.exec.mode.local.auto的值为true来让Hive在适当的时候自动启动这个优化。 比如设定本地模式时可以设定如下参数 -- 开启本地local mr set hive.exec.mode.local.autotrue; -- 设置local mr的最大输入数据量当输入数据量小于这个值时采用local mr的 方式默认为134217728即128M set hive.exec.mode.local.auto.inputbytes.max134217728; -- 设置local mr的最大输入文件个数当输入文件个数小于这个值时采用local mr 的方式默认为4 set hive.exec.mode.local.auto.input.files.max4;1.3数据压缩格式 为什么要对文件或目录进行压缩呢 1便于集中处理 1对于一个未执行任何压缩操作的1000MB文件, 当从路径A传输到路径B时 假定网速100MB/s 则传输总时长为10秒 2对于一个未执行任何压缩操作的1000MB文件, 通过压缩后再传输操作完成: 从路 径A传输到路径B。 假定压缩效率330MB/s, 则1000MB压缩到100MB花费3秒, 到达指定路径后, 解压花费3秒 则传输总时长为6秒。 2便于资料传输 3便于阅读数据。 --开启hive支持中间结果的压缩方案 -- set hive.exec.compress.intermediatetrue; -- --开启hive支持最终结果压缩 -- set hive.exec.compress.outputtrue; -- -- --开启MR的mapper端压缩操作 -- set mapreduce.map.output.compresstrue; -- --设置mapper端压缩的方案 -- set mapreduce.map.output.compress.codec org.apache.hadoop.io.compress.SnappyCodec; -- -- 开启MR的reduce端的压缩方案 -- set mapreduce.output.fileoutputformat.compresstrue; -- -- -- 设置reduce端压缩的方案 -- set mapreduce.output.fileoutputformat.compress.codec org.apache.hadoop.io.compress.SnappyCodec; -- --设置reduce的压缩类型 -- set mapreduce.output.fileoutputformat.compress.typeBLOCK;一般地设定数据文件的压缩格式时仅需执行一些参数配置声明即可。 1.4数据存储格式 下行存储、列存储的一些特点 1行式存储的特点 查询满足条件的一整行数据时行存储只需要找到其中一个值其余的值都在相邻地方 所以行存储查询和访问的效率更高 2列式存储的特点 因为每个字段的列数据都是聚集存储当在查询仅需要少数几个字段时能大大减少读取的数据量 并且每个字段的数据类型一定是相同的 所以列式存储可以针对性的设计出更好的存储格式、或设计压缩算法。 1行式存储格式 常用的行式存储格式为TEXTFILE 优点相关的数据是保存在一起比较符合面向对象的思维因为一行数据就是一条记录。这种存储格式比较方便进行INSERT/UPDATE操作 缺点如果查询只涉及某几个列它会把整行数据都读取出来不能跳过不必要的列读取。当然数据比较少一般没啥问题如果数据量比较大就比较影响性能。 2列式存储格式 常用的列式存储格式有ORC(Optimized Row Columnar)和PARQUET。一般地ORC格式效果要比PARQUET压缩率更高 优点查询时只有涉及到的列才会被查询不会把所有列都查询出来即可以跳过不必要的列查询。高效的压缩率不仅节省储存空间也节省计算内存和CPU。 缺点INSERT/UPDATE很麻烦或者不方便不适合扫描小量的数据。create [external] table 表名( 字段名 字段类型, 字段名 字段类型, ... ) [row format delimited fields terminated by 指定分隔符] [stored as textfile] -- 行式存储格式 18.1M [stored as parquet] -- 列式存储格式 13.1M [stored as orc]; -- 列式存储格式 2.8M-- 创建表 create table tb_textfile_mode( log_date_time string, visit_web string, secret string, web_engine string, ip string, buy_status string, result_value int ) row format delimited fields terminated by \t stored as textfile ; -- 导入数据 insert into table tb_textfile_mode select * from tb_taobao_log; -- 查看数据 select * from tb_textfile_mode; -- 看文件大小 create table tb_parquet_mode( log_date_time string, visit_web string, secret string, web_engine string, ip string, buy_status string, result_value int ) row format delimited fields terminated by \t stored as parquet ; -- 导入数据 insert into table tb_parquet_mode select * from tb_taobao_log; -- 查看数据 select * from tb_parquet_mode; create table tb_orc_mode( log_date_time string, visit_web string, secret string, web_engine string, ip string, buy_status string, result_value int ) row format delimited fields terminated by \t stored as orc ; -- 导入数据 insert into table tb_orc_mode select * from tb_taobao_log; -- 查看数据 select * from tb_orc_mode;当仅考虑数据文件的压缩比时可以优先考虑使用列式存储的orc格式。 1.5join的优化操作 述join存在哪些问题? 导致reduce的压力剧增, 所有的数据全部都打向reduce中当有了多个reduce后, 如果某个join字段的值出现大量的重复, 会导致大量key发往同一个reduce, 从而导致数据倾斜 通过 map 端 join实现 通过 map join 即可解决掉 reduce join所出现的所有的问题, 也可以这么mapjoin有解决数据倾斜的作用 存在什么弊端: 小表数据需要存储在内存中, 随着mapTask越多, 存储在内存的小表数据份数也会越多 当这个小表数据比较大的, 可能无法放置到内存中 所以说, mapJoin有一定使用范围: 仅适用于小表 和大表 进行join的情况 2.SQL优化 2.1列裁剪 Hive在读数据的时候可以只读取查询中所需要用到的列而忽略其他列 假设有一个表A: a b c 三个字段, 请查看以下SQL select a,b from A where axxx; 在这条SQL, 发现没有使用c这个字段, 在from A表时候, 读取数据, 只需要将a列和 b列数据读取出来即可, 不需要读取c列字段, 这样可以减少读取的数据量, 从而提升效率2.2分区裁剪 执行查询SQL的时候, 如果操作的表是一张分区表, 那么建议一定要带上分区字段, 以减少扫描的数据量, 从而提升效率, 能在join之前提前过滤的操作, 一定要提前过滤, 不要在join后进行过滤操作 select * from A join B where A.idxxx; 优化后: select * from (select * from A where id xxx) A join B;2.3 group by 操作 执行分组操作, 翻译后的MR, 分组的字段就是k2的字段, 按照k2进行分组操作, 将相同value合并在同一个集合中, 既然分组的字段就是MR的k2, 那么分区也会按照分组字段进行分区操作, 如果某个组下数据非常的多, 可能出现出现什么问题呢? 此时有可能发生数据倾斜, 因为相同key会发往同一个reduce中 所以说: 在hive中出现数据倾斜的主要体现在两个方面: 第一个:执行join操作(reduce join) 第二个:执行group by 操作2.4count(distinct) 说明 : count(distinct) 在数据量比较大的情况下, 效率并不高 执行count操作的时候, hive翻译的MR, reduce数量是否可以有多 个? 必然不会有多个, 只能有一个, 因为全局求最终结果 此时如果执行统计的时候, 需要进行去重,那么去重工作是由reduce执行 去重操作, 由于reduce只有一个, 所有的数据都在一个reduce中, 此时reduce 的压力比较大 希望执行去重工作可能有多个reduce一起来执行操作, 此时可以将SQL优化: 原有: select count(distinct ip) from ip_tab; 优化: select count(ip) from (select ip from ip_tab group by ip) tmp; 请注意: 这样的做法, 虽然会运行两个MR, 但是当数据量足够庞大的时 候, 此操作绝对是值得的, 如果数据量比较少, 此操作效率更低2.5笛卡尔积 什么是笛卡尔积呢? 在进行join的时候, 两个表乘积之后结果就是笛卡尔积的结果 比如: 一个表有5条, 一个表有3条数据, 笛卡尔积结果就有15条数据 , 笛卡尔积中有大量数据都是无用数据 什么时候会产生笛卡尔积呢? 在多表join的时候, 关联条件缺少或者使用错误的关联条件以及将关联条件放置在where中都会导致笛卡尔积在实际使用中, 建议 1) 避免join的时候不加on条件或者无效的on条件 2) 关联条件不要放置在where语句, 因为底层, 先产生笛卡尔积 然后基于where进行过滤 , 建议放置on条件上 3) 如果实际开发中无法确定表与表关联条件 建议与数据管理者重新对接, 避免出现问题3动态分区 需求: 请将下面的一个分区表数据, 拷贝到另一个分区表, 保证对应区数据放置到另一个表的对应区下 作用: 帮助一次性灌入多个分区的数据 参数: set hive.exec.dynamic.partition.modenonstrict; -- 开启非严格模式 默认为 strict(严格模式) set hive.exec.dynamic.partitiontrue; -- 开启动态分区支持, 默认就是true 可选的参数: set hive.exec.max.dynamic.partitions1000; -- 在所有执行MR的 节点上最大一共可以创建多少个动态分区。 set hive.exec.max.dynamic.partitions.pernode100; -- 每个执 行MR的节点上最大可以创建多少个动态分区 set hive.exec.max.created.files100000; -- 整个MR Job中最大可以创建多少个HDFS文件-- 分区列本质就是在原表基础上生成了一个虚拟列 create table dynamic_stu1( id int, name string, age int )partitioned by (month string) row format delimited fields terminated by , stored as textfile; -- 上传文件后查询 select * from dynamic_stu1; -- 查不到 -- 注意: 分区表上传文件是没有效果,需要将此文件数据放到分区目录中 -- 手动/自动创建分区目录 -- 静态分区 load data inpath /user/hive/warehouse/day09.db/dynamic_stu1/dynamic_stu.txt into table dynamic_stu1 partition (month202302); -- 自动生成分区后查询 select * from dynamic_stu1; -- 如果要是手动创建了分区目录,需要msck repair修复 metastorecheck msck repair table dynamic_stu1; -- 修复完后再查询 select * from dynamic_stu1; -- 需求: 把dynamic_stu1表结构数据都复制到dynamic_stu2分区表 create table dynamic_stu2( id int, name string, age int )partitioned by (month string) row format delimited fields terminated by , stored as textfile; -- 开启动态分区支持, 默认就是true,无需操作 set hive.exec.dynamic.partitiontrue; -- 动态分区方式1 insert into dynamic_stu2 select * from dynamic_stu1; -- 查看分区 show partitions dynamic_stu2; -- 想要演示动态分区方式2,需要删除刚才的分区 alter table dynamic_stu2 drop partition (month202302); alter table dynamic_stu2 drop partition (month202303); -- 动态分区方式2 insert into dynamic_stu2 partition (month) select * from dynamic_stu1; -- 报错 set hive.exec.dynamic.partition.modenonstrict; -- 开启非严格模 式 默认为 strict(严格模式) insert into dynamic_stu2 partition (month) select * from dynamic_stu1; -- 成功 -- 再次查看分区 show partitions dynamic_stu2;3.1 如何调整map和reduce的数量 1是不是map数越多越好 答案是否定的。如果一个任务有很多小文件远远小于块大小128m则每个小文件也会被当做一个块用一个map任务来完 成而一个map任务启动和初始化的时间远远大于逻辑处理的时间就会造成很大的资源浪费。而且同时可执行的map数是受限的。 2是不是保证每个map处理接近128m的文件块就高枕无忧了 答案也是不一定。比如有一个127m的文件正常会用一个map去完成但这个文件只有一个或者两个小字段却有几千万的记录如果map处理的逻辑比较复杂用一个map任务去做肯定也比较耗时。 3是不是reduce数越多越好 答案是否定的。如果reduce设置的过大对整个作业会产生一定的影响。 ①过多的启动和初始化reduce也会消耗时间和资源 ②另外有多少个reduce就会有多少个输出文件如果生成了很多个小文件那么如果这些小文件作为下一个任务的输入则也会出现小文件过多的问题 如何调整mapTask数量: 小文件场景 当input的文件都很小,把小文件进行合并归档,减少map数, 设置map数量: – 每个Map最大输入大小(这个值决定了合并后文件的数量) set mapred.max.split.size112345600; – 一个节点上split的至少的大小(这个值决定了多个DataNode上的文件是否需要合并) set mapred.min.split.size.per.node112345600; – 一个交换机下split的至少的大小(这个值决定了多个交换机上的文件是否需要合并) set mapred.min.split.size.per.rack112345600; – 执行Map前进行小文件合并 set hive.input.formatorg.apache.hadoop.hive.ql.io.CombineHive InputFormat; 大文件场景 当input的文件都很大任务逻辑复杂map执行非常慢的时候可以考虑增加Map数来使得每个map处理的数据量减少从而提高任务的执行效率。 举例:如果表a只有一个文件大小为120M但包含几千万的记录如果用1个map去完成这个任务肯定是比较耗时的这种情况下我们要考虑将这一个文件合理的拆分成多个这样就可以用多个map任务去完成。set mapred.reduce.tasks10; create table a_1 as select * from tab_info distribute by rand(123); 这样会将a表的记录随机的分散到包含10个文件的a_1表中再用a_1代替上面sql中的a表则会用10个map任务去完成。 如何reduce的数量: 总共受3个参数控制 1每个Reduce处理的数据量默认是256MB hive.exec.reducers.bytes.per.reducer256123456 2每个任务最大的reduce数默认为999 hive.exec.reducers.max999 3mapreduce.job.reduces 该值默认为-1由hive自己根据任务情况进行判断。因此可以手动设置每个job的Reduce个数 set mapreduce.job.reduces 8;在什么情况下, 只能有一个reduce呢? 以下几种, 不管如何设置, 最终翻译后reduce只能有一个 1) 执行order by操作 2) 执行不需要group by直接聚合的操作 3) 执行笛卡尔积4.并行执行 在执行一个SQL语句的时候, SQL会被翻译为MR, 一个SQL有可能被翻译成多个MR,那么在多个MR之间, 有些MR之间可能不存在任何的关联, 此时可以设置让这些没有关联的MR 并行执行, 从而提升效率 , 默认是 一个一个来 set hive.exec.paralleltrue; --打开任务并行执行,默认关闭 set hive.exec.parallel.thread.number16; --同一个sql允许最大并行度默认为8。 前提: 服务器必须有资源, 如果没有 即使支持并行, 也没有任何作用select * from A .... union all select * from B ...; 例如: select from (select * from A group by ...) tmp1 join (select * from B group by xxx) on ...5严格模式 屏蔽一下操作: 1) 执行order by 不加 limit 2) 出现笛卡尔积的现象SQL 3) 查询分区表, 不带分区字段 前提: 数据量足够大, 如果数据量比较少, 严格模式对此三项内容不生效set hive.mapred.mode strict; --开启严格模式 set hive.mapred.mode nostrict; --开启非严格模式6.推测执行 Hadoop采用了推测执行Speculative Execution机制它根据一定的法则推测出“拖后腿”的任务并为这样的任务启动一个备份任务让该任务与原始任务同时处理同一份数据并最终选用最先成功运行完成任务的计算结果作为最终结果。hadoop中默认两个阶段都开启了推测执行机制。 hive本身也提供了配置项来控制reduce-side的推测执行 set hive.mapred.reduce.tasks.speculative.executiontrue; 关于调优推测执行机制还很难给一个具体的建议。如果用户对于运行时的偏差非常敏感的话那么可以将这些功能关闭掉。如果用户因为输入数据量很大而需要执行长时间的 map或者Reduce task的话那么启动推测执行造成的浪费是非常巨大。7执行计划explain 使用EXPLAIN关键字可以模拟优化器执行SQL查询语句从而知道MySQL是如何处理你的SQL语句的。帮助我们了解底层原理,hive调优,排查数据倾斜等有很有帮助 使用示例explain [...] sql查询语句; explain sql语句: 查看执行计划的基本信息1stage dependencies各个stage之间的依赖性 包含两部分:Stage-1和Stage-0Stage-1 是根stageStage-0 依赖 Stage-1 2stage plan各个stage的执行计划 包含两部分: map端执行计划树和reduce端执行计划树

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/diannao/89087.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

做我女朋网站源码珠海市建设工程信息网

MFC 六大关键技术 ( 第四部分 ) ——永久保存(串行化) 先用一句话来说明永久保存的重要:弄懂它以后,你就越来越像个程序员了! 如果我们的程序不需要永久保存,那几乎可以肯定是一个小玩儿。那怕我们的记事本…

wordpress 忘记数据库密码破解百度seo推广价格

目录 参数复制文件然后进行同时复制操作 给定内容生成文件,并制定权限验证 关于覆盖先查看当前内容覆盖并备份查看文件权限 还有有没有备份查看文件内容 参数 这个模块用于将文件复制到远程主机,同时支持给定内容生成文件和修改权限等。   其相关选项…

摄影类手机网站模板步骤英文

DNS过滤 URL过滤和DNS过滤对比

网站建设合同违约条款wordpress插件排列

http://blog.jobbole.com/65218/ 本文由 伯乐在线 - 熊崽Kevin 翻译自 pypix.com。欢迎加入技术翻译小组。转载请参见文章末尾处的要求。 数据结构 数据结构的概念很好理解,就是用来将数据组织在一起的结构。换句话说,数据结构是用来存储一系列关联数据的…

茂名小学网站建设三合一网站建设是指

算法学习——华为机考题库3(HJ21 - HJ30) HJ21 简单密码 描述 现在有一种密码变换算法。 九键手机键盘上的数字与字母的对应: 1–1, abc–2, def–3, ghi–4, jkl–5, mno–6, pqrs–7, tuv–8 wxyz–9, 0–0,把密码…

公司建网站需要先注册域名龙岗 营销型网站建设

工具介绍 官网 http://www.linkdata.se/sourcecode/memwatch/ 其功能如下官网介绍,挑选重点整理: 1、 号称功能: 内存泄露检测 (检测未释放内存, 即 动态内存开辟未释放的情况) 2、 检测 多次调用free&…

门户网站布局个人主页图片

本篇会加入个人的所谓鱼式疯言 ❤️❤️❤️鱼式疯言:❤️❤️❤️此疯言非彼疯言 而是理解过并总结出来通俗易懂的大白话, 小编会尽可能的在每个概念后插入鱼式疯言,帮助大家理解的. 🤭🤭🤭可能说的不是那么严谨.但小编初心是能让更多人…

手把手网站开发网页编辑的软件工具包括

开启MongoDB服务时不添加任何参数时,默认是没有权限验证的,登录的用户可以对数据库任意操作而且可以远程访问数据库! 在刚安装完毕的时候MongoDB都默认有一个admin数据库,此时admin数据库是空的,没有记录权限相关的信息!当admin.system.users一个用户…

建站城律师做网络推广哪个网站好

微软刚刚在 Visual Studio Code 网站上宣布了“动态分享”(Live Share)功能,开发者们可以在 VS 2017 或 VS Code 中体验全新的实施协作。微软表示,Live Share 可让团队在相同的代码库上启用快速协作,而无需同步代码或配…

公司网站建设要求网站添加 百度商桥

因为本人的专业是财务方面的,而且目前也是在从事着财务管理的工作,在一家技术型的公司。平常与那些技术人员接触时,发现他们常常过多地关注于技术,而对与自己息息相关的财税知识却知之甚少。在不出现什么情况的时候,当…

科技网站建设 开题报告新产品开发流程管理

分页查询算是比较常用的一个查询了在DAO层主要是查两个数据第一个总条数第二个要查询起始记录数到查询的条数当第一次点击查询时候(非下一页时Page类里面预设的就是 index就是0 pageSize是预设值当点击下一页的时候 index 和 pageSize带的就是页面上面给的值了分页的页面一般的…

海南省做购房合同网站全国做网站的公司

文章目录 前言1. 本地安装PPTist2. PPTist 使用介绍3. 安装Cpolar内网穿透4. 配置公网地址5. 配置固定公网地址 前言 本文主要介绍如何在Windows系统环境本地部署开源在线演示文稿应用PPTist,并结合cpolar内网穿透工具实现随时随地远程访问与使用该项目。 PPTist …

网站建设尺寸wordpress 3d标签

一 HBase简介与环境部署 1.1 HBase简介&在Hadoop生态中的地位 1.1.1 什么是HBase HBase是一个分布式的、面向列的开源数据库HBase是Google BigTable的开源实现HBase不同于一般的关系数据库, 适合非结构化数据存储 1.1.2 BigTable BigTable是Google设计的分布式数据存储…

网站排名优化在线培训云营销网站建设电话咨询

一只小狐狸带你解锁 炼丹术&NLP 秘籍作者:机智的叉烧(OPPO算法工程师,擅长Query理解方向)背景搜索和推荐经常会被放在一起对比,其中最突出的区别就是搜索中存在query,需要充分考虑召回内容和query之间的…

怎么做网站网站怎样制作免费个人网页

文章目录 前言一、单选题二、填空题三、简答题总结前言 学习了项目的开发与发布之后,我们就可以单独对一个项目进行开发了,但是在企业中开发中,除了编码之外,还需要项目管理、团队协作开发等,这就是软件项目管理板块要学习的内容。本文是对《软件项目管理(第二版)》第 3…

网站建站的类型九江网站设计

【README】 消息中心的消息追踪需要使用 Trace 实现,Trace是 rabbitmq用于记录每一次发送的消息;方便开发者调试,排错。可通过插件形式提供可视化界面。 【1】 开启消息追踪 1)消息追踪通过 rabbitmq的插件 trace 来实现&#x…

襄阳网站建设电子商务论文

LiveGBS作为上级平台对接海康大华华为宇视等下级平台监控摄像机NVR硬件执法仪等GB28181设备 1、背景说明2、部署国标平台2.1、安装使用说明2.2、服务器网络环境2.3、信令服务配置 3、监控摄像头设备接入3.1、海康GB28181接入示例3.2、大华GB28181接入示例3.3、华为IPC GB28181接…

相亲网站上做it的骗术榆林网站建设推广

1、首先net stop mysql服务,并且切换到任务管理器,有与mysql有关的,最好关闭进程。 2、运行CMD命令切换到MySql安装bin目录,下面是我的mysql安装目录 cd C:\Program Files\MySQL\MySQL Server 5.6\bin 接着执行mysqld --skip-gra…

江苏建设信息官网网站景安免费虚拟主机

正则化方法有如下几种: 一、参数范数惩罚 其中L2、L1参数正则化介绍与关系如下 1、L2 参数正则化 直观解释如下: 2、L1 参数正则化 二、获取更多数据(扩样本) 避免过拟合的基本方法之一是从数据源获得更多数据,当训练数…

婴儿衣服做的网站好房地产建筑公司网站

7-38 图着色问题 (25 分)图着色问题是一个著名的NP完全问题。给定无向图G(V,E),问可否用K种颜色为V中的每一个顶点分配一种颜色,使得不会有两个相邻顶点具有同一种颜色?但本题并不是要你解决这个着色问题,而是对给定的一种颜色分配…