中文域名.网站如何制作一个静态网站源码

web/2025/10/1 21:51:58/文章来源:
中文域名.网站,如何制作一个静态网站源码,济宁手机网站建设公司,上海网站备案审核时间Hive3.1.3编译 1.编译原因1.1Guava依赖冲突1.2开启MetaStore后运行有StatsTask报错1.3Spark版本过低 2.环境部署2.1jdk安装2.2maven部署2.3安装图形化桌面2.4安装Git2.5安装IDEA 3.拉取Hive源码4.Hive源码编译4.1环境测试1.测试方法——编译2.问题及解决方案#x1f4a5;问题1… Hive3.1.3编译 1.编译原因1.1Guava依赖冲突1.2开启MetaStore后运行有StatsTask报错1.3Spark版本过低 2.环境部署2.1jdk安装2.2maven部署2.3安装图形化桌面2.4安装Git2.5安装IDEA 3.拉取Hive源码4.Hive源码编译4.1环境测试1.测试方法——编译2.问题及解决方案问题1下载不到 pentaho-aggdesigner-algorithm-5.1.5-jhyde.jar问题2阿里云镜像没有被使用问题3jdk版本冲突2.环境部署做的不细致 4.2解决Guava版本冲突问题1.修改内容2.问题及解决方案问题1Futures.addCallback()方法27.0-jre中3个参数19.0中2个参数问题2Iterators的 emptyIterator 方法过时了 4.3开启MetaStore之后StatsTask报错1.修改内容2.问题及解决方案问题1cherry-pick失败 4.4Spark兼容问题1.修改内容2.问题及解决方案问题1SparkCounter中方法过时需要替换问题2ShuffleWriteMetrics中方法过时需要替换问题3TestStatsUtils中方法过时需要替换 4.5编译成功 各组件版本选择 hadoop-3.3.2 hive-3.1.3 spark-3.3.4 Scala version 2.12.15 spark-3.3.4依赖hadoop-3.3.2 1.编译原因 1.1Guava依赖冲突 tail -200 /tmp/root/hive.log /home/log/hive-200.loghive的github地址 https://github.com/apache/hive 查询guava依赖 https://github.com/apache/hive/blob/rel/release-3.1.3/pom.xml guava.version19.0/guava.version hadoop的github地址 https://github.com/apache/hadoop 查询guava依赖 https://github.com/apache/hadoop/blob/rel/release-3.3.2/hadoop-project/pom.xml guava.version27.0-jre/guava.version 1.2开启MetaStore后运行有StatsTask报错 FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.StatsTask MapReduce Jobs Launched: 1.3Spark版本过低 Hive3.1.3默认支持Spark2.3.0版本过低很多新的高效方法都没用到所以替换为spark-3.3.4Hadoop3.3.2支持的最高spark版本 spark.version2.3.0/spark.version2.环境部署 2.1jdk安装 已安装1.8版本 (base) [rootbigdata01 opt]# java -version java version 1.8.0_301 Java(TM) SE Runtime Environment (build 1.8.0_301-b09) Java HotSpot(TM) 64-Bit Server VM (build 25.301-b09, mixed mode)2.2maven部署 下载3.6.3安装包 https://archive.apache.org/dist/maven/maven-3/3.6.3/binaries/ (base) [rootbigdata01 ~]# cd /opt (base) [rootbigdata01 opt]# tar -zxvf apache-maven-3.6.3-bin.tar.gz (base) [rootbigdata01 opt]# mv apache-maven-3.6.3 maven (base) [rootbigdata01 opt]# vim /etc/profile # 增加MAVEN_HOME export MAVEN_HOME/opt/maven export PATH$MAVEN_HOME/bin:$PATH (base) [rootbigdata01 opt]# source /etc/profile监测 maven 是否安装成功 (base) [rootbigdata01 opt]# mvn -version Apache Maven 3.6.3 () Maven home: /opt/maven Java version: 1.8.0_301, vendor: Oracle Corporation, runtime: /opt/jdk/jre Default locale: zh_CN, platform encoding: UTF-8 OS name: linux, version: 4.18.0-365.el8.x86_64, arch: amd64, family: unix配置仓库镜像阿里云公共仓库 vim /opt/maven/conf/settings.xml ?xml version1.0 encodingUTF-8? settings xmlnshttp://maven.apache.org/SETTINGS/1.0.0xmlns:xsihttp://www.w3.org/2001/XMLSchema-instancexsi:schemaLocationhttp://maven.apache.org/SETTINGS/1.0.0 http://maven.apache.org/xsd/settings-1.0.0.xsdlocalRepository/repo/localRepositorymirrorsmirroridaliyunmaven/idmirrorOfcentral/mirrorOfname阿里云公共仓库/nameurlhttps://maven.aliyun.com/repository/public/url/mirror/mirrors /settings2.3安装图形化桌面 采用带图形界面的Centos卸载多余的jdk避免版本冲突。这里的操作非常重要不处理会报稀奇古怪的错误。例如Fatal error compiling: 无效的目标发行版: 1.11 报错java1.11没有这个版本即使升了java11也没有用。 找到多余安装的jdk (base) [rootbigdata01 ~]# yum list installed |grep jdk copy-jdk-configs.noarch 4.0-2.el8 appstream java-1.8.0-openjdk.x86_64 1:1.8.0.362.b08-3.el8 appstream java-1.8.0-openjdk-devel.x86_64 1:1.8.0.362.b08-3.el8 appstream java-1.8.0-openjdk-headless.x86_64 1:1.8.0.362.b08-3.el8 appstream卸载多余安装的jdk (base) [rootbigdata01 ~]# yum remove -y copy-jdk-configs.noarch java-1.8.0-openjdk.x86_64 java-1.8.0-openjdk-devel.x86_64 java-1.8.0-openjdk-headless.x86_64验证当前的jdk (base) [rootbigdata01 ~]# java -version java version 1.8.0_301 Java(TM) SE Runtime Environment (build 1.8.0_301-b09) Java HotSpot(TM) 64-Bit Server VM (build 25.301-b09, mixed mode)2.4安装Git 安装第三方仓库 (base) [rootbigdata01 opt]# yum install https://repo.ius.io/ius-release-el7.rpm https://dl.fedoraproject.org/pub/epel/epel-release-latest-7.noarch.rpm安装Git (base) [rootbigdata01 opt]# yum install -y gitgit版本检查 (base) [rootbigdata01 ~]# git -v git version 2.43.02.5安装IDEA https://download.jetbrains.com.cn/idea/ideaIU-2021.1.3.tar.gz 下载 linux版 (base) [rootbigdata01 opt]# tar -zxvf ideaIU-2021.1.3.tar.gz启动IDEA启动图形化界面要在VMware中 cd /opt/idea-IU-211.7628.21 ./bin/idea.sh这里试用30天 配置 mavensettings.xml中已配置阿里云公共仓库地址 设置 idea 快捷图标这里的 bluetooth-sendto.desktop 是随便复制了一个可以任意换 (base) [rootbigdata01 bin]# cd /usr/share/applications (base) [rootbigdata01 applications]# cp bluetooth-sendto.desktop idea.desktop (base) [rootbigdata01 applications]# vim idea.desktop # 删掉原有的补充这个内容 [Desktop Entry] Nameidea Execsh /opt/idea-IU-211.7628.21/bin/idea.sh Terminalfalse TypeApplication Icon/opt/idea-IU-211.7628.21/bin/idea.png Commentidea CategoriesApplication;3.拉取Hive源码 Get from VCS拉取hive源码拉取的全过程大约需要1小时 配置URL https://gitee.com/apache/hive.git并设置文件地址 信任项目 后注意配置这里按图填否则容易jdk版本异常造成错误(-Xmx2048m) 加载hive3.1.3 并建立分支 slash-hive-3.1.3 4.Hive源码编译 4.1环境测试 1.测试方法——编译 https://hive.apache.org/development/gettingstarted/ 点击Getting Started Guide https://cwiki.apache.org/confluence/display/Hive/GettingStarted#GettingStarted-BuildingHivefromSource 点击Building Hive from Source 获得编码方式执行在 Terminal 终端执行运行成功的7min左右 mvn clean package -Pdist -DskipTests -Dmaven.javadoc.skiptrue2.问题及解决方案 问题1下载不到 pentaho-aggdesigner-algorithm-5.1.5-jhyde.jar [ERROR] Failed to execute goal on project hive-upgrade-acid: Could not resolve dependencies for project org.apache.hive:hive-upgrade-acid:jar:3.1.3 Downloading from conjars: http://conjars.org/repo/org/pentaho/pentaho-aggdesigner-algorithm/5.1.5-jhyde/pentaho-aggdesigner-algorithm-5.1.5-jhyde.pom 下载不到 pentaho-aggdesigner-algorithm-5.1.5-jhyde.jar 这个问题是一个已知问题它是由于Pentaho公司的Maven存储库服务器已被永久关闭所以无法从该仓库获取它的依赖项导致的。 解决方案先修改 /opt/maven/conf/setting.xml 文件如下 ?xml version1.0 encodingUTF-8? settings xmlnshttp://maven.apache.org/SETTINGS/1.0.0xmlns:xsihttp://www.w3.org/2001/XMLSchema-instancexsi:schemaLocationhttp://maven.apache.org/SETTINGS/1.0.0 http://maven.apache.org/xsd/settings-1.0.0.xsdlocalRepository/repo/localRepositorymirrors!-- 添加这个镜像仓库在阿里云公共仓库前面 --mirroridaliyunmaven/idmirrorOf*/mirrorOfnamespring-plugin/nameurlhttps://maven.aliyun.com/repository/spring-plugin/url/mirrormirroridaliyunmaven/idmirrorOfcentral/mirrorOfname阿里云公共仓库/nameurlhttps://maven.aliyun.com/repository/public/url/mirror/mirrors /settings成功下载 /org/pentaho/ 相关内容后再改回去 问题2阿里云镜像没有被使用 [ERROR] Failed to execute goal on project hive-upgrade-acid: Could not resolve dependencies for project org.apache.hive:hive-upgrade-acid:jar:3.1.3 Downloading from conjars: https://maven.glassfish.org/content/groups/glassfish/asm/asm/3.1/asm-3.1.jar 下载不到 asm-3.1.jar 修改/opt/maven/conf/settings.xml文件之前的阿里云镜像没有被使用。复制如下内容覆盖整个settings.xml文件 ?xml version1.0 encodingUTF-8? settings xmlnshttp://maven.apache.org/SETTINGS/1.0.0xmlns:xsihttp://www.w3.org/2001/XMLSchema-instancexsi:schemaLocationhttp://maven.apache.org/SETTINGS/1.0.0 http://maven.apache.org/xsd/settings-1.0.0.xsd localRepository/repo/localRepository mirrorsmirroridaliyunmaven/idmirrorOfcentral/mirrorOfname阿里云公共仓库/nameurlhttps://maven.aliyun.com/repository/public/url/mirror /mirrors /settings配置后重启服务阿里云镜像被成功使用 问题3jdk版本冲突2.环境部署做的不细致 [ERROR] Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:3.5.1:compile (default-compile) on project hive-upgrade-acid: Fatal error compiling: 无效的目标发行版: 1.11 - [Help 1] 报这个错误是jdk版本冲突了Linux版尽管 java -version 都显示了 1.8版本但图形化、IDEA没做处理就会有很多jdk存在需要做的就是重新做2.环境部署3.拉取Hive源码 4.2解决Guava版本冲突问题 1.修改内容 修改pom.xml中的guava.version的版本为 27.0-jre # 原来版本 guava.version19.0/guava.version # 修改后版本 guava.version27.0-jre/guava.version修改版本后执行编译 mvn clean package -Pdist -DskipTests -Dmaven.javadoc.skiptrue 结果保存/home/slash/hive/packaging/target/apache-hive-3.1.3-bin.tar.gz 2.问题及解决方案 问题1Futures.addCallback()方法27.0-jre中3个参数19.0中2个参数 [ERROR] Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:3.6.1:compile (default-compile) on project hive-llap-common: Compilation failure: Compilation failure: [ERROR] /home/slash/hive/llap-common/src/java/org/apache/hadoop/hive/llap/AsyncPbRpcProxy.java:[173,16] 无法将类 com.google.common.util.concurrent.Futures中的方法 addCallback应用到给定类型; [ERROR] 需要: com.google.common.util.concurrent.ListenableFutureV,com.google.common.util.concurrent.FutureCallback? super V,java.util.concurrent.Executor [ERROR] 找到: com.google.common.util.concurrent.ListenableFutureU,org.apache.hadoop.hive.llap.AsyncPbRpcProxy.ResponseCallbackU [ERROR] 原因: 无法推断类型变量 V [ERROR] (实际参数列表和形式参数列表长度不同)修改 Futures.addCallback()为其增加第3个参数,MoreExecutors.directExecutor()这个修改大概15处方法相同 // 原来的 VisibleForTestingT extends Message , U extends Message void submitToExecutor(CallableRequestT, U request, LlapNodeId nodeId) {ListenableFutureU future executor.submit(request);Futures.addCallback(future, new ResponseCallbackU(request.getCallback(), nodeId, this));}// 修改后的 VisibleForTestingT extends Message , U extends Message void submitToExecutor(CallableRequestT, U request, LlapNodeId nodeId) {ListenableFutureU future executor.submit(request);Futures.addCallback(future, new ResponseCallbackU(request.getCallback(), nodeId, this),MoreExecutors.directExecutor());}过程中如果出现 ”找不到MoreExecutors方法“的问题可以手动 import 这个方法具体方法可以拷贝其他文件中的 import 问题2Iterators的 emptyIterator 方法过时了 [ERROR] Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:3.6.1:compile (default-compile) on project hive-druid-handler: Compilation failure [ERROR] /home/slash/hive/druid-handler/src/java/org/apache/hadoop/hive/druid/serde/DruidScanQueryRecordReader.java:[46,61] TemptyIterator()在com.google.common.collect.Iterators中不是公共的; 无法从外部程序包中对其进行访问修改Iterators中的emptyIterator方法 # org.apache.hadoop.hive.druid.serde.DruidScanQueryRecordReader # 原始代码private IteratorListObject compactedValues Iterators.emptyIterator(); # 修改后代码private IteratorListObject compactedValues ImmutableSet.ListObjectof().iterator();4.3开启MetaStore之后StatsTask报错 1.修改内容 # 错误信息 FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.StatsTask MapReduce Jobs Launched: # 错误日志 /tmp/root/hive.log exec.StatsTask: Failed to run stats task org.apache.hadoop.hive.ql.metadata.HiveException: org.apache.thrift.transport.TTransp ortException错误分析见 https://issues.apache.org/jira/browse/HIVE-19316 IDEA点击 Cherry-pick将StatsTask fails due to ClassCastException的补丁合并到当前分支 修改版本后执行编译 mvn clean package -Pdist -DskipTests -Dmaven.javadoc.skiptrue 结果保存/home/slash/hive/packaging/target/apache-hive-3.1.3-bin.tar.gz 2.问题及解决方案 问题1cherry-pick失败 Cherry-pick failed 3d21bc38 HIVE-19316: StatsTask fails due to ClassCastException (Jaume Marhuenda, reviewed by Jesus Camacho Rodriguez) Committer identity unknown *** Please tell me who you are. Run git config --global user.email “youexample.com” git config --global user.name “Your Name” to set your account’s default identity. Omit --global to set the identity only in this repository. unable to auto-detect email address (got ‘rootbigdata01.(none)’) 需要提交修复的版本信息 Cherry-pick failed 3d21bc38 HIVE-19316: StatsTask fails due toClassCastException (Jaume Marhuenda, reviewedby Jesus Camacho Rodriguez)your local changes would be overwritten bycherry-pick.hint: commit your changes or stash them toproceed.cherry-pick failed 工作目录中已经存在一些未提交的更改。git 不允许在未提交更改的情况下进行 cherry-pick # 提交修复的版本信息 git config --global user.email 360322495qq.com git config --global user.name slash# 添加并commit提交 git add . git commit -m resolve conflict guava4.4Spark兼容问题 1.修改内容 修改pom.xml中的 spark.version、scala.version、hadoop.version !-- 原始代码 -- spark.version2.3.0/spark.version scala.binary.version2.11/scala.binary.version scala.version2.11.8/scala.version!-- 修改后代码 -- spark.version3.3.4/spark.version scala.binary.version2.12/scala.binary.version scala.version2.12.15/scala.versionspark中消除部分hadoop依赖hive3.1.3依赖的是hadoop3.1.0不同于spark-3.3.4依赖hadoop3.3.2不用改hive pom的hadoop依赖 !-- 修改后代码 -- groupIdorg.apache.spark/groupId artifactIdspark-core_${scala.binary.version}/artifactId version${spark.version}/version exclusionsexclusiongroupIdorg.apache.hadoop/groupIdartifactIdhadoop-core/artifactId/exclusionexclusiongroupIdorg.apache.hadoop/groupIdartifactIdhadoop-client/artifactId/exclusionexclusiongroupIdorg.apache.hadoop/groupIdartifactIdhadoop-client-api/artifactId/exclusionexclusiongroupIdorg.apache.hadoop/groupIdartifactIdhadoop-client-runtime/artifactId/exclusion /exclusions2.问题及解决方案 问题1SparkCounter中方法过时需要替换 [ERROR] Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:3.6.1:compile (default-compile) on project hive-spark-client: Compilation failure: Compilation failure: [ERROR] /home/slash/hive/spark-client/src/main/java/org/apache/hive/spark/counter/SparkCounter.java:[22,24] 找不到符号 [ERROR] 符号: 类 Accumulator [ERROR] 位置: 程序包 org.apache.spark [ERROR] /home/slash/hive/spark-client/src/main/java/org/apache/hive/spark/counter/SparkCounter.java:[23,24] 找不到符号 [ERROR] 符号: 类 AccumulatorParam [ERROR] 位置: 程序包 org.apache.spark [ERROR] /home/slash/hive/spark-client/src/main/java/org/apache/hive/spark/counter/SparkCounter.java:[30,11] 找不到符号 [ERROR] 符号: 类 Accumulator [ERROR] 位置: 类 org.apache.hive.spark.counter.SparkCounter [ERROR] /home/slash/hive/spark-client/src/main/java/org/apache/hive/spark/counter/SparkCounter.java:[91,41] 找不到符号 [ERROR] 符号: 类 AccumulatorParam [ERROR] 位置: 类 org.apache.hive.spark.counter.SparkCounter移除无用的方法并修改相关内容最终结果如下 /** Licensed to the Apache Software Foundation (ASF) under one* or more contributor license agreements. See the NOTICE file* distributed with this work for additional information* regarding copyright ownership. The ASF licenses this file* to you under the Apache License, Version 2.0 (the* License); you may not use this file except in compliance* with the License. You may obtain a copy of the License at* p/* http://www.apache.org/licenses/LICENSE-2.0* p/* Unless required by applicable law or agreed to in writing, software* distributed under the License is distributed on an AS IS BASIS,* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.* See the License for the specific language governing permissions and* limitations under the License.*/ package org.apache.hive.spark.counter;import java.io.Serializable;import org.apache.spark.api.java.JavaSparkContext; import org.apache.spark.util.LongAccumulator;public class SparkCounter implements Serializable {private String name;private String displayName;private LongAccumulator accumulator;// Values of accumulators can only be read on the SparkContext side. This field is used when// creating a snapshot to be sent to the RSC client.private long accumValue;public SparkCounter() {// For serialization.}private SparkCounter(String name,String displayName,long value) {this.name name;this.displayName displayName;this.accumValue value;}public SparkCounter(String name,String displayName,String groupName,long initValue,JavaSparkContext sparkContext) {this.name name;this.displayName displayName;String accumulatorName groupName _ name;this.accumulator sparkContext.sc().longAccumulator(accumulatorName);this.accumulator.setValue(initValue);}public long getValue() {if (accumulator ! null) {return accumulator.value();} else {return accumValue;}}public void increment(long incr) {accumulator.add(incr);}public String getName() {return name;}public String getDisplayName() {return displayName;}public void setDisplayName(String displayName) {this.displayName displayName;}SparkCounter snapshot() {return new SparkCounter(name, displayName, accumulator.value());}}问题2ShuffleWriteMetrics中方法过时需要替换 [ERROR] Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:3.6.1:compile (default-compile) on project hive-spark-client: Compilation failure: Compilation failure: [ERROR] /home/slash/hive/spark-client/src/main/java/org/apache/hive/spark/client/metrics/ShuffleWriteMetrics.java:[50,39] 找不到符号 [ERROR] 符号: 方法 shuffleBytesWritten() [ERROR] 位置: 类 org.apache.spark.executor.ShuffleWriteMetrics [ERROR] /home/slash/hive/spark-client/src/main/java/org/apache/hive/spark/client/metrics/ShuffleWriteMetrics.java:[51,36] 找不到符号 [ERROR] 符号: 方法 shuffleWriteTime() [ERROR] 位置: 类 org.apache.spark.executor.ShuffleWriteMetrics修改相关方法 // 原始代码 public ShuffleWriteMetrics(TaskMetrics metrics) {this(metrics.shuffleWriteMetrics().shuffleBytesWritten(),metrics.shuffleWriteMetrics().shuffleWriteTime());}// 修改后 public ShuffleWriteMetrics(TaskMetrics metrics) {this(metrics.shuffleWriteMetrics().bytesWritten(),metrics.shuffleWriteMetrics().writeTime());}问题3TestStatsUtils中方法过时需要替换 [ERROR] Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:3.6.1:testCompile (default-testCompile) on project hive-exec: Compilation failure [ERROR] /home/slash/hive/ql/src/test/org/apache/hadoop/hive/ql/stats/TestStatsUtils.java:[34,39] 程序包org.spark_project.guava.collect不存在修改相关方法 // 原始代码 import org.spark_project.guava.collect.Sets;// 修改后 import org.sparkproject.guava.collect.Sets;4.5编译成功 mvn clean package -Pdist -DskipTests -Dmaven.javadoc.skiptrue Hive3.1.3-spark-3.3.4-hadoop-3.3.2编译成功结果保存/home/slash/hive/packaging/target/apache-hive-3.1.3-bin.tar.gz 声明本文所载信息不保证准确性和完整性。文中所述内容和意见仅供参考不构成实际商业建议可收藏可转发但请勿转载如有雷同纯属巧合

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/85269.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

网站做优化需要多少钱特殊信息收费的网站有哪些

本文主要介绍微信小程序如何获取openid及用户信息,具有一定的参考价值,感兴趣的小伙伴们可以参考一下,希望能帮助到大家。1. 获取openid1.1 获取code调用接口获取登录凭证(code)进而换取用户登录态信息,包括用户的唯一标识(openid…

松滋网站开发摄影师作品网站有哪些

随着全球产业技术的不断发展,包装机行业也出现了产业结构调整的动向,因为全新的全自动阀口袋包装机和全新的包装产品技术问世,那些制作粗糙,能源消耗大,技术相对比较落后的阀口袋包装机也将会被市场一步步淘汰掉&#…

各大网站收录想学网站建设选计算机应用技术还是计算机网络技术哪个专业啊

摘 要 随着我国微型电子技术和嵌入式系统的发展,目前行业内相对比较传统的机械臂无法满足客户的需求。为了改进传统机械臂在控制上得短板问题,在本次毕业设计中,将使用相对先进、快捷、智能的控制机制。该系统的控制大脑为核心控制器32系列嵌…

建设网站需要两种服务支持网站建设公司的岗位职责

目录 今日良言:有志者自有千计万计,无志者只感千难万难 一、简介 二、Redis的安装 三、Redis的简单使用 四、Redis相关知识点 1.缓存分类 2.五大基本数据类型使用 3.持久化 4.常见面试题 今日良言:有志者自有千计万计,无…

建设银行信用卡申请官方网站佛山新网站建设哪家好

所有Team站点都带有专用文件库,用于存储所有工作组的内容。 您现在可以从桌面或云存储站点将Visio文件上载到此库,例如,您所在Team的资产都集中在一个位置,供具有权限的任何人进行访问。与其他存储文件一样,您可以直接…

专业的网站建设电话国贸行业 网站建设

文章目录 泛型单例类泛型单例类&#xff08;不带组件版&#xff09;对象池管理器数据管理器场景管理器 泛型单例类 using System.Collections; using System.Collections.Generic;public abstract class ManagersSingle<T> where T : new() {private static T instance;…

外贸soho建网站小网站如何做

Vue 3是Vue框架的最新版本&#xff0c;它引入了Composition API&#xff0c;这是一个全新的API&#xff0c;与Vue 2的Options API有很大的不同。下面是Vue 3和Composition API的一些重要变化和使用要点&#xff1a; 1. **Setup函数** - 在Vue 3中&#xff0c;每个页面的入口…

网天下信息技术有限公司网站成都网站seo收费标准

一、背景 当我们使用Joplin时&#xff0c;上传图片时会自动上传到Joplin服务器并替换链接 但是Joplin的编辑器不好用&#xff0c;我更习惯用Typora来编辑&#xff0c; 然而Typora中上传的图片只能在本地&#xff0c;无法上传到Joplin服务器&#xff0c;在其他客户端也看不到图片…

视频网站架构白银市城乡建设局网站

1、无限循环&#xff1a;又称为死循环&#xff1b; 两种情况&#xff1a; 1&#xff09;、代码逻辑有问题&#xff0c;从而出现死循环&#xff1b;该情况下出现的死循环占用大量的内存资源&#xff0c;我们需要杜绝其出现&#xff1b; 2&#xff09;、根据需求需要人为主动定…

广西网站建设公司电话吉林省吉林市为什么名字一样

一、什么是数据库&#xff1f; 数据库是一个结构化的数据集合&#xff0c;用于存储、管理和组织数据。它是一个电子化的文件柜&#xff0c;可以存储大量的数据&#xff0c;并提供了一种高效地检索、更新和管理数据的方法。数据库可以用于存储各种类型的数据&#xff0c;例如文…

百度知道网页版地址重庆公司seo

2019-07-22关键字&#xff1a;/system/bin/sh: xxx: No such file or directory虽然说 Android 也是基于 Linux 的&#xff0c;但总归来说它们的编译链还是很有可能不一样的&#xff0c;这就导致编译出来的程序有可能不能通用&#xff0c;即使它们都是基于 Linux 的。而有些不能…

企业网站建设尚未实现宣传功能游戏推广公司好做吗

[闽南网]DNF分享红包分享快乐时间从2019年的1月3日开始到1月21日前结束&#xff0c;活动期间玩家每天登录游戏可以得到一个新年红包&#xff0c;使用后可以为同一个频道的玩家送去祝福&#xff0c;根据送出红包的数量得到不同的奖励。(dnf幸运饺子铺活动)(DNF95版新副本攻略)本…

查logo的网站江西网络推广外包

文章目录一、HTTP简介二、请求报文三、请求方式四、媒体类型五、响应报文一、HTTP简介 HTTP&#xff1a;Hyper Text Transfer Protocol 超文本传输协议。HTTP最大的作用就是确定了请求和响应数据的格式。浏览器发送给服务器的数据&#xff1a;请求报文&#xff1b;服务器返回给…

浙江天奥建设集团网站中山模板建站软件

1.概念 如果同时发给局域网中的所有主机&#xff0c;称为广播 我们可以使用命令查看我们Linux下当前的广播地址&#xff1a;ifconfig 2.广播地址 以192.168.1.0 (255.255.255.0) 网段为例&#xff0c;最大的主机地址192.168.1.255代表该网段的广播地址&#xff08;具体以ifcon…

深圳建设银行官方网站赤峰市网站建设

加载libcomposite.ko 失败 问题描述 如图&#xff0c;在做USB OTG 设备模式的时候需要用到libcomposite.ko驱动&#xff0c;加载失败了。 原因&解决方法 有一个依赖叫configfs.ko的驱动没有安装。可以从内核代码的fs/configfs/configfs.ko中找到这个驱动。先加载confi…

在线网站你们会回来感谢我的个人或企业做网络贸易的主要网站

1。互交机人了便方 &#xfffd;口接的间之统系机算计和户用为作还统系作操时同 &#xfffd;理管的源资类四等件文 &#xfffd;备设O/I &#xfffd;器储存 &#xfffd;机理处对现实 &#xfffd;源资件软 、件硬的机算计理管和制控统系作操 &#xfffd;】答解【&#xfff…

杭州网站建设页面福建省建设工程质量安全网站

我们有时会遇到某个文件被占用&#xff0c;无法删除或者修改。很多人此时重启机器来解决&#xff0c;但是因为有的程序已启动就把文件占用了&#xff0c;重启也没用。 其实&#xff0c;我们可以使用perfmon.exe /res 在上面的搜索框里输入被占用的文件名&#xff0c;就可以知道…

12306网站建设花了多少钱天津电商网站制作

CCIE-LAB-SDN-第一篇-修改交换机管理IP 之前讲到CCIE-LAB呢是分三个部分的 那么第一个模块1,传统路由交换已经全部发出来了 到了这个模块2呢,就是SDN了,开始搞了实际中,思科只会给你5个小时去做下面的全部配置 这个是CCIE-LAB的拓扑图

合肥网站建it运维工资多少

Debezium日常分享系列之&#xff1a;设置MySQL数据库以支持数据实时采集 一、创建用户二、启用二进制日志三、启用 GTID四、配置会话超时五、启用查询日志事件六、验证二进制日志行值选项七、Debezium技术总结 在安装和运行 Debezium 连接器之前&#xff0c;需要执行一些 MySQL…

服务器网站网站专用深圳网站建设公司企业

目录 一、原创文章被引用次数 0 问题描述 1 数据准备 2 数据分析 ​编辑 3 小结 二、学生退费人数 0 问题描述 1 数据准备 2 数据分析 3 小结 一、原创文章被引用次数 0 问题描述 求原创文章被引用的次数&#xff0c;注意本题不能用关联的形式求解。 1 数据准备 i…