瑞安网站建设优化美食分享网站建设策划书

news/2025/10/8 10:41:46/文章来源:
瑞安网站建设优化,美食分享网站建设策划书,教育网站 php,做网站什么框架比较好Hadoop的第一个核心组件#xff1a;HDFS#xff08;分布式文件存储系统#xff09; 一、HDFS的组成1、NameNode2、DataNode3、SecondaryNameNode4、客户端#xff1a;命令行/Java API 二、HDFS的基本使用1、命令行操作2、Java API操作 三、HDFS的工作流程问题#xff08;H… Hadoop的第一个核心组件HDFS分布式文件存储系统 一、HDFS的组成1、NameNode2、DataNode3、SecondaryNameNode4、客户端命令行/Java API 二、HDFS的基本使用1、命令行操作2、Java API操作 三、HDFS的工作流程问题HDFS的原理性内容1、HDFS上传数据的流程2、HDFS下载数据的流程3、HDFS副本备份机制4、HDFS中NameNode和SecondaryNameNode的工作机制5、HDFS中NameNode和DataNode之间的工作机制 四、HDFS、YARN的新节点的服役和旧节点的退役 —— 在namenode所在节点的hadoop中配置1、概念2、新节点服役操作3、旧节点退役操作如果第一次增加退役文件必须重启HDFS集群 一、HDFS的组成 1、NameNode 存储整个HDFS集群的元数据metaData —— 整个集群中存储的目录和文件的索引管理整个HDFS集群接收客户端的请求负责节点的故障转移 2、DataNode 存储数据是以block块的形式进行数据的存放。默认情况下block块的大小是128M。blocksize大小的计算公式 寻址时间下载文件时找到文件的时间寻址时间是传输时间的1%的时候是最佳的状态hdfs的寻址时间平均是10ms数据传输速度100M/s 定时负责汇总整个节点上存储的block块的信息然后给NN汇报。负责和客户端连接进行文件的读写操作。 3、SecondaryNameNode 辅助NameNode去完成edits编辑日志和fsimage镜像文件的合并操作。 4、客户端命令行/Java API 负责和HDFS集群进行通信实现文件的增删改查负责进行block块的分割 二、HDFS的基本使用 HDFS是一个分布式文件存储系统可以存储数据文件数据HDFS既然是一个文件系统那么就可以进行文件的上传、下载、删除、创建文件夹等等 HDFS给我们提供了两种操作的方式①命令行来操作②通过Java API来进行操作 1、命令行操作 命令行操作 hdfs dfs -xxxx xxxxx 或者 hadoop fs -xxxx xxxxx 查看 —— hdfs dfs -ls/ 新建 —— hdfs dfs -mkdir /demo 上传 —— hdfs dfs -put jdk-8u371-linux-x64.tar.gz /demo 上传并删除Linux本地内容 —— hdfs dfs -moveFromLocal hadoop-3.1.4.tar.gz /demo 下载 —— hdfs dfs -getToLocal /demo/hadoop-3.1.4.tar.gz /opt/software 下载 —— hdfs dfs -copyToLocal /demo/hadoop-3.1.4.tar.gz /opt/software 删除 —— hdfs dfs -rm -r /demo2、Java API操作 引入Hadoop的编程依赖hadoop-client、hadoop-hdfs到pom.xml中 project xmlnshttp://maven.apache.org/POM/4.0.0 xmlns:xsihttp://www.w3.org/2001/XMLSchema-instancexsi:schemaLocationhttp://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsdmodelVersion4.0.0/modelVersiongroupIdcom.kang/groupIdartifactIdhdfs-study/artifactIdversion1.0-SNAPSHOT/versionpackagingjar/packagingnamehdfs-study/nameurlhttp://maven.apache.org/urlpropertiesproject.build.sourceEncodingUTF-8/project.build.sourceEncodingmaven.compiler.source8/maven.compiler.sourcemaven.compiler.target8/maven.compiler.targethadoop.version3.1.4/hadoop.version/propertiesdependenciesdependencygroupIdjunit/groupIdartifactIdjunit/artifactIdversion4.12/versionscopecompile/scope/dependency!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-client --dependencygroupIdorg.apache.hadoop/groupIdartifactIdhadoop-client/artifactIdversion${hadoop.version}/version/dependency!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-hdfs --dependencygroupIdorg.apache.hadoop/groupIdartifactIdhadoop-hdfs/artifactIdversion${hadoop.version}/version/dependency/dependencies /projecthdfs的基本操作 /*** HDFS的编程流程* 1、创建Hadoop的配置文件对象配置文件对象指定HDFS的相关连接配置* 配置文件对象等同于hadoop的etc/hadoop目录下的哪些xxx.xml配置* 2、根据配置获取和HDFS的连接* 3、连接去操作HDFS集群*/import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.LocatedFileStatus; import org.apache.hadoop.fs.Path; import org.apache.hadoop.fs.RemoteIterator;import java.io.IOException; import java.net.URI; import java.net.URISyntaxException;public class Demo {public static void main(String[] args) throws URISyntaxException, IOException, InterruptedException {//1、创建Hadoop的配置文件Configuration对象Configuration conf new Configuration();//2、根据配置文件获取HDFS的连接 FileSystemFileSystem system FileSystem.get(new URI(hdfs://192.168.31.104:9000), conf, root);//3、根据System去操作HDFS集群了RemoteIteratorLocatedFileStatus listedFiles system.listFiles(new Path(/), false);while(listedFiles.hasNext()){LocatedFileStatus fileStatus listedFiles.next();System.out.println(文件的路径 fileStatus.getPath());System.out.println(文件的所属用户 fileStatus.getOwner());System.out.println(文件的权限 fileStatus.getPermission());System.out.println(文件的blocksize fileStatus.getBlockSize());}} }import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.junit.Before; import org.junit.Test;import java.io.IOException; import java.net.URI; import java.net.URISyntaxException;/*** 单元测试*/ public class HDFSTest {public FileSystem fileSystem;Beforepublic void init() throws URISyntaxException, IOException, InterruptedException {//1、创建Hadoop的配置文件Configuration对象Configuration conf new Configuration();conf.set(dfs.replication,1);//2、根据配置文件获取HDFS的连接 FileSystemfileSystem FileSystem.get(new URI(hdfs://192.168.31.104:9000), conf, root);}/*** 1、通过JavaAPI实现文件的上传*/Testpublic void test01() throws IOException {fileSystem.copyFromLocalFile(new Path(D:\\2023PracticalTraining\\software\\InstallPackage\\PowerDesginer16.5.zip),new Path(/demo));System.out.println(上传成功);//fileSystem.copyToLocalFile();}/*** 2、下载文件* 在Windows上远程操作HDFS或者是在Windows上操作MapReduce代码的时候有些情况下要求windows上也必须有hadoop的软件环境* 但是hadoop只能在Linux上安装因此Windows上安装的hadoop其实是一个假的环境* 报错exitcode-107xxxxxxx 原因是因为电脑缺少C语言的运行环境*/Testpublic void test02() throws IOException {fileSystem.copyToLocalFile(new Path(/jdk-8u371-linux-x64.tar.gz),new Path(D:\\Desktop));System.out.println(下载成功);}/*** 3、删除文件的方法*/Testpublic void test03() throws IOException {boolean delete fileSystem.delete(new Path(/demo), true);System.out.println(delete);} }test01 test02 会显示报错HADOOP_HOME and hadoop.home.dir are unset. 在Windows上远程操作HDFS或者是在Windows上操作MapReduce代码的时候有些情况下要求windows上也必须有hadoop的软件环境 但是hadoop只能在Linux上安装因此Windows上安装的hadoop其实是一个假的环境 将发给Linux的hadoop-3.1.4.tar.gz这个安装包先解压为hadoop-3.1.4.tar再解压为hadoop-3.1.4 解压时会报错此报错不予理会 解压后将文件中的bin目录下的所有文件均作替换替换文件可在百度上搜索下载 配置环境变量 编辑系统变量中的Path 再次运行程序即可成功 test03 package com.kang;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileStatus; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path;import java.io.IOException; import java.net.URI; import java.net.URISyntaxException;/*** hdfs查看某个路径下的所有文件和文件夹的信息*/ public class Demo01 {public static void main(String[] args) throws URISyntaxException, IOException, InterruptedException {Configuration conf new Configuration();FileSystem fs FileSystem.get(new URI(hdfs://192.168.31.104:9000), conf, root);/****/FileStatus[] fileStatuses fs.listStatus(new Path(/));for (FileStatus fileStatus : fileStatuses) {System.out.println(fileStatus.getPath());System.out.println(fileStatus.getBlockSize());System.out.println(fileStatus.getPermission());System.out.println(fileStatus.getOwner());System.out.println(fileStatus.getGroup());}} }package com.kang;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path;import java.io.IOException; import java.net.URI; import java.net.URISyntaxException;/*** hdfs的相关判断类型的JavaAPI操作*/ public class Demo02 {public static void main(String[] args) throws URISyntaxException, IOException, InterruptedException {Configuration conf new Configuration();FileSystem fs FileSystem.get(new URI(hdfs://192.168.31.104:9000), conf, root);boolean b fs.isDirectory(new Path(/demo));System.out.println(b);boolean b1 fs.isFile(new Path(/demo));System.out.println(b1);boolean exists fs.exists(new Path(/a));System.out.println(exists);} }package com.kang;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path;import java.io.IOException; import java.net.URI; import java.net.URISyntaxException;/*** hdfs的创建相关的JavaAPI*/ public class Demo03 {public static void main(String[] args) throws URISyntaxException, IOException, InterruptedException {Configuration conf new Configuration();FileSystem fs FileSystem.get(new URI(hdfs://192.168.31.104:9000), conf, root);boolean mkdirs fs.mkdirs(new Path(/a/b));System.out.println(mkdirs);boolean newFile fs.createNewFile(new Path(/a/a.txt));System.out.println(newFile);} }package com.kang;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FSDataInputStream; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path;import java.io.FileOutputStream; import java.io.IOException; import java.net.URI; import java.net.URISyntaxException;/*** hdfs提供了一个可以借助JavaIO流读取数据的方法* 上传fs.create 下载fs.open*/ public class Demo04 {public static void main(String[] args) throws URISyntaxException, IOException, InterruptedException {Configuration conf new Configuration();FileSystem fs FileSystem.get(new URI(hdfs://192.168.31.104:9000), conf, root);FSDataInputStream inputStream fs.open(new Path(/jdk-8u371-linux-x64.tar.gz));inputStream.seek(128*1024*1024);FileOutputStream fos new FileOutputStream(D:\\Desktop\\block2);int read 0;while((read inputStream.read())!-1){fos.write(read);}System.out.println(第二个数据块读取完成);} }HDFS不适用于大量小文件的常量、HDFS不能对存储的文件进行修改操作 三、HDFS的工作流程问题HDFS的原理性内容 1、HDFS上传数据的流程 客户端在和DN建立连接的时候是和距离它最近的某一个DN建立连接 怎么判断DN距离客户端的距离网络拓扑原则 客户端和HDFS的节点在同一个集群上客户端向namenode请求上传文件namenode检查目标文件是否已存在父目录是否存在。namenode返回是否可以上传。客户端请求第一个 block上传到哪几个datanode服务器上。namenode返回3个datanode节点分别为dn1、dn2、dn3。客户端请求dn1上传数据dn1收到请求会继续调用dn2然后dn2调用dn3将这个通信管道建立完成。dn1、dn2、dn3逐级应答客户端。客户端开始往dn1上传第一个block先从磁盘读取数据放到一个本地内存缓存以packet为单位dn1收到一个packet就会传给dn2dn2传给dn3dn1每传一个packet会放入一个应答队列等待应答。当一个block传输完成之后客户端再次请求namenode上传第二个block的服务器。重复执行3-7步 2、HDFS下载数据的流程 客户端向namenode请求下载文件namenode通过查询元数据找到文件块所在的datanode地址。挑选一台datanode就近原则然后随机服务器请求读取数据。datanode开始传输数据给客户端从磁盘里面读取数据放入流以packet为单位来做校验。客户端以packet为单位接收先在本地缓存然后写入目标文件。 3、HDFS副本备份机制 数据上传的时候会根据配置进行block块的备份备份的时候选择哪些节点进行数据备份 机架感知原则进行备份低版本Hadoop副本节点选择 第一个副本在client所处的节点上。如果客户端在集群外随机选一个。 第二个副本和第一个副本位于不相同机架的随机节点上。 第三个副本和第二个副本位于相同机架节点随机。Hadoop2.8.5副本节点选择 第一个副本在client所处的节点上。如果客户端在集群外随机选一个。 第二个副本和第一个副本位于相同机架随机节点。 第三个副本位于不同机架随机节点。4、HDFS中NameNode和SecondaryNameNode的工作机制 这个工作机制就是NameNode如何管理元数据的机制 元数据指的是HDFS存储文件/文件夹的类似的目录结构目录中记录着每一个文件的大小、时间、每一个文件的block块的份数block块存储的节点列表信息… NameNode默认的元数据内存是1000M可以存储管理百万个block块的元数据信息 两个和元数据有关的文件 —— 再次启动HDFS之后恢复元数据的机制 edits编辑日志文件记录客户端对HDFS集群的写入和修改操作 fsimage镜像文件理解为HDFS元数据的持久点检查文件 HDFS的安全模式safemode HDFS启动之后会先进入安全模式安全模式就是将edits和fsimage文件加载到nn内存的这一段时间dn向NN注册的这一段时间 安全模式下无法操作HDFS集群的安全模式会自动退出NN的内存加载好了元数据加载好了同时HDFS集群还满足节点数的启动 SNN的作用就是对NN进行checkpoint检查点机制操作 checkpoint什么时候触发 检查点时间到了 —— 1小时 dfs.namenode.checkpoint.period 3600sHDFS距离上一次检查点操作数到达100万次 dfs.namenode.checkpoint.txns 1000000 SNN每隔1分钟会询问一次NN是否要进行checkponit操作 dfs.namenode.checkpoint.check.period 60s NameNode的出现故障之后元数据的恢复方式 因为元数据的核心是edits和fsimage文件同时snn工作的时候会把nn的文件复制到snn当中因此如果NN的元数据丢失我们可以从SNN中把这些文件再复制到NN的目录下 进行元数据的恢复恢复可能会导致一部分的元数据丢失 SNN的目录 h a d o o p . t m p . d i r / d f s / n a m e s e c o n d a r y / c u r r e n t n n 的目录 {hadoop.tmp.dir}/dfs/namesecondary/current nn的目录 hadoop.tmp.dir/dfs/namesecondary/currentnn的目录{hadoop.tmp.dir}/dfs/name/current 元数据还有一种恢复方式配置HDFS的namenode的多目录保存HDFS的编辑日志和镜像文件在多个目录下保存相同的备份 这种方式只能使用在同一个节点上 这种方式存在的问题如果整个节点宕机无法恢复了 dfs.namenode.name.dir 多个路径 hdfs-site.xml propertynamedfs.namenode.name.dir/name value/opt/app/hadoop/data/dfs/name1,/opt/app/hadoop/data/dfs/name2/value /property最好把HDFS重新格式化一下或者手动把目录创建一份 HA高可用模式 5、HDFS中NameNode和DataNode之间的工作机制 详细流程 一个数据块在datanode上以文件形式存储在磁盘上包括两个文件一个是数据本身一个是元数据包括数据块的长度块数据的校验和以及时间戳。DataNode启动后向namenode注册通过后周期性1小时的向namenode上报所有的块信息。心跳是每3秒一次心跳返回结果带有namenode给该datanode的命令如复制块数据到另一台机器或删除某个数据块。如果超过10分钟没有收到某个datanode的心跳则认为该节点不可用。集群运行中可以安全加入和退出一些机器。 DataNode上存储的block块除了数据本身以外还包含数据的长度、数据校验和、时间戳… 数据校验和是为了保证block块的完整性和一致性的校验和机制创建block块的时候会根据数据本身计算一个校验和以后每一次DN进行block汇总的时候会再进行一次校验和的计算如果两次校验和不一致则认为block块损坏了。 DataNode和NameNode心跳默认三秒心跳一次默认值可以调整 dfs.heartbeat.interval 3s propertynamedfs.namenode.heartbeat.recheck-interval/namevalue300000/value单位毫秒 /property propertyname dfs.heartbeat.interval /namevalue3/value单位秒 /property修改此配置时需关闭HDFS但是不需要重新格式化 心跳的作用有两个1、检测DN是否活着 2、把NN让DN做的事情告诉DN NN如何知道DN掉线 - 死亡 - 宕机了掉线的时限NN如果在某一次心跳中没有收到DN的心跳NN不会认为DN死亡了而是会继续心跳如果超过掉线的时限的时间还没有心跳成功NN才会认为DN死亡了然后启动备份恢复机制 掉线时限的时长是有一个计算公式 timeout 2 * dfs.namenode.heartbeat.recheck-interval 10 * dfs.heartbeat.interval。 dfs.namenode.heartbeat.recheck-interval 心跳检测时间 5分钟 dfs.heartbeat.interval 心跳时间 3s 默认情况下如果超过10min30s没有收到DN的心跳 认为DN死亡了 DataNode每隔一段时间默认6小时会向NameNode汇报一次节点上所有的block块的信息 dfs.blockreport.intervalMsec 21600000ms 每隔6小时向NN汇报一次DN的block块的信息 dfs.datanode.directoryscan.interval 21600s 每隔6小时DN自己扫描一下DN上的block块信息 四、HDFS、YARN的新节点的服役和旧节点的退役 —— 在namenode所在节点的hadoop中配置 1、概念 HDFS是一个分布式文件存储系统HDFS身为一个大数据软件基本上都是7*24小时不停机的那如果HDFS集群的容量不够用了那么我们需要增加一个新的数据节点因为HDFS不能停止因此我们需要在HDFS集群运行过程中动态的增加一个数据节点新节点的服役操作旧节点的退役。 2、新节点服役操作 服役新节点之前需要创建一台新的虚拟节点并且配置Java、Hadoop环境、SSH免密登录、ip、主机映射、主机名 1、在Hadoop的配置文件目录创建一个dfs.hosts文件文件中声明Hadoop集群的从节点的主机名 2、在Hadoop的hdfs-site.xml文件中增加一个配置项 dfs.hosts 值文件的路径 !--dfs.hosts代表改文件中的地址都为白名单可以访问NameNode节点与NameNode节点通信-- propertynamedfs.hosts/namevalue/opt/app/hadoop-3.1.4/etc/hadoop/dfs.hosts/value /property3、在HDFS开启的状态下刷新从节点的信息 hdfs dfsadmin -refreshNodes yarn rmadmin -refreshNodes 4、只需要在新节点启动datanode和nodemanager即可成功实现节点的服役 hadoop-daemon.sh start datanode hadoop-daemon.sh start nodemanager 3、旧节点退役操作如果第一次增加退役文件必须重启HDFS集群 1、在Hadoop的配置目录创建一个文件dfs.hosts.exclude,文件中编写退役的主机名 2、在Hadoop的hdfs-site.xml配置文件中声明退役的节点文件 dfs.hosts.exclude 值 文件的路径 !--dfs.hosts.exculde文件代表namenode访问的黑名单 需要退役的数据节点 黑名单加入的数据节点如果也在dfs.hosts文件存在的话 不会立即退出 而是先把数据块转移到其他数据节点 然后再退役 -- propertynamedfs.hosts.exclude/namevalue/opt/app/hadoop-3.1.4/etc/hadoop/dfs.hosts.exclude/value /property3、同时需要在服役节点文件中把退役节点删除了在dfs.hosts中 4、刷新节点信息状态 hdfs dfsadmin -refreshNodes yarn rmadmin -refreshNodes 【注意】退役的时候会先把退役节点的block块复制到没有退役的节点上然后才会下线而且退役的时候必须保证退役之后剩余集群的节点数大于等于副本数

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/931382.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

2025 振动盘厂家最新推荐榜单:涵盖精密 / 电子 / 定制等多场景,揭秘市场信赖品牌选择秘籍笔筒振动盘/振动盘定做/橡胶振动盘厂家推荐

在自动化生产加速渗透的当下,振动盘作为物料排序送料的核心设备,直接决定生产线效率与产品合格率。然而当前市场品牌繁杂,既有深耕多年的企业,也有近年涌现的新兴力量,产品性能、定制能力与服务质量差异显著。许多…

上海法律网站建设html5彩票网站模板

文章详细解析 注意点 1.当作者在文章中写到:实际问题是:我们从根本上改变了吗? 说明:我们没有发生根本上的改变,作者不同意前文中的未来派诗歌 知识点 ----单词 unhampered adj无阻碍的 finite adj有限的 ink n墨水 corresponding adj相应的,符合的 upsetting adj令人生厌…

Axure 下拉框联动 - 实践

pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

2025 年震动盘厂家最新推荐榜单:覆盖精密震动盘 / 电子震动盘 / 塑料震动盘等品类,为企业高效选型提供权威参考

在当前自动化生产飞速发展的背景下,震动盘作为自动化上料核心设备,已成为五金、电子、医疗器械等众多行业高效生产的关键一环。然而,市场上震动盘品牌数量激增,产品质量、技术水平与服务能力差异显著,部分品牌存在…

题解:qoj6170 凸多边形正则划分问题

题意:给定 \(n,k\),求 \(nk-2(n-1)\) 边形的 \(k\) 角剖分数量,\(n\le1.1\times10^6\)。 做法: 前置知识:多项式复合逆:如果 \(F(G(x)) = G(F(x))=x\),则称 \(F,G\) 互为复合逆。拉格朗日反演公式:设 \(F\) 的…

web安全开发,在线%机器学习异常流量检测系统%开发demo - 详解

pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

织梦手机电影网站模板天津网站设计公司

最近阿里云centos主机到期了改为使用Ubuntu操作系统,在上面安装mysql并远程连接出现了一系列问题并解决。 之前在centos系统上下载mysql8的教程如下: 阿里云服务器(centos7)上的MySQL8数据库下载,安装和远程连接 主机操…

工程建设国家标准网站常州网站建设开发

文章目录 openGauss学习笔记-108 openGauss 数据库管理-管理用户及权限-用户108.1 创建、修改和删除用户108.2 私有用户108.3 永久用户108.4 用户认证优先规则 openGauss学习笔记-108 openGauss 数据库管理-管理用户及权限-用户 使用CREATE USER和ALTER USER可以创建和管理数据…

深圳企业官网网站建设网络推广营销方案100例

网络安全设计、原则、审计等知识点的精讲如下: 网络安全设计与原则: 网络安全设计是指在系统或网络的设计过程中考虑到安全性,并采取相应的安全措施来保护系统或网络不受威胁。安全设计原则包括最小权限原则(Least Privilege Prin…

2025 铅板源头厂家最新推荐排行榜:聚焦防辐射铅门 / 放射科防护 / 高纯度铅皮,深挖性价比与适配性

在放射科、DR 室、宠物医院墙体防护等场景中,铅板的纯度、规格精度与耐腐蚀性能直接决定防护安全性,2 毫米铅皮、3mm 厚铅板等细分需求更对厂家适配能力提出高要求。当前市场厂家良莠不齐,部分产品存在铅锭纯度不足…

2025 年国内电容厂家最新推荐排行榜:聚焦固态 / 高压 / 安规 / CBB / 超级电容多品类,精选优质厂商助力企业精准采购选型

当前,电容作为电子设备核心基础元件,在消费电子、工业控制、新能源汽车、储能等领域的需求持续攀升,固态、高压、安规等细分品类电容的应用场景也不断拓展。然而,市场上电容品牌数量激增,资质与性能差异悬殊,企业…

2025 年 MOS 管厂家最新推荐排行榜权威发布,覆盖高压 / 低压 / 大功率 / N 型等类型,助力企业高效采购精准选型

当前电子元器件行业中,MOS 管作为核心组件,广泛应用于医疗设备、汽车电子、储能等关键领域,其品质与供应稳定性直接决定下游企业的生产效率与产品竞争力。但市场上 MOS 管品牌数量繁杂,部分品牌存在资质不规范、产…

网站建设 镇江万达纯净软件网站推荐

axios和fetch都是用于发起HTTP请求的工具,但是它们有一些区别: 语法和用法:axios是一个基于Promise的HTTP客户端,具有更简洁和直观的语法,可以方便地发送GET、POST、PUT等各种请求,并提供了更多的请求配置选…

广州建设网站是什么南宁seo建站

QT中资源文件resourcefile的使用 之前添加图标的方法使用资源文件的方法创建资源文件资源文件添加前缀资源文件添加资源使用资源文件中的资源 在Qt中引入资源文件好处在于他能提高应用程序的部署效率并且减少一些错误的发生。 在程序编译过程中, 添加到资源文件中的…

Chrome浏览器插件开发

本书是一本全面深入的浏览器插件开发教程,旨在帮助读者理解并掌握创建功能强大的浏览器插件的技术和方法。本书不仅详细介绍了插件开发的理论知识,同时还提供了丰富的实战代码,使读者能够通过实际操作来巩固和提升技…

网站开发者id北京网站建设课程培训班

思维导图:https://www.processon.com/view/link/60d6fcaf1e08532a43bea653

昆山设计网站的公司哈尔滨关键词优化排行

1、Lombok简介 作为java的忠实粉丝,但也不得不承认,java是一门比较啰嗦的语言,很多代码的编写远不如其他静态语言方便,更别说跟脚本语言比较了。 因此,lombok应运而生。 Lombok是一种工具库,它提供了一组…

北京哪里做网站好2022年热点新闻事件

在上一篇文章里,制作了显示血量和蓝量的ui,并且还将ui和获取数据使用的控制器层创建出来并初始化成功。现在只有主用户控件上面被添加了控制器层,还未给每个用户控件赋予控制器层。接下来要实现对属性的广播功能,在属性值变化的时…

2025 年最新波形护栏厂家推荐排行榜:聚焦国内优质厂商技术优势与服务能力,助力采购方精准选型 三波/二波/双波/喷塑/公路/热浸锌/浸塑波形护栏厂家推荐

当前道路交通建设持续推进,波形护栏作为保障道路安全的关键设施,其质量直接关系到公众出行安全与道路运营稳定性。但市场上厂家数量繁杂,部分厂商存在技术落后、原材料劣质、质量检测缺失等问题,导致产品耐冲击性差…

建立网站要钱吗学东西的网站

目录 String类型 Hash类型 List类型 Set类型 SortedSet类型 全局命令 集合中的交并补 String类型 //set,get型set key valueget key//设置一个10s后过期的键值对 ex单位是sset key value ex 10 或者 setex key 10 value//设置一个10ms后过期的键值对 px单位是msset key…