建设银行的网站为什么这么卡91号卡分销平台

news/2025/9/22 19:44:07/文章来源:
建设银行的网站为什么这么卡,91号卡分销平台,网站地址查询网,外贸正品网站1. Sqoop 1.1 Sqoop介绍 Sqoop 是一个在结构化数据和 Hadoop 之间进行批量数据迁移的工具 结构化数据可以是MySQL、Oracle等关系型数据库 把关系型数据库的数据导入到 Hadoop 与其相关的系统 把数据从 Hadoop 系统里抽取并导出到关系型数据库里 底层用 MapReduce 实现数据 …1. Sqoop 1.1 Sqoop介绍 Sqoop 是一个在结构化数据和 Hadoop 之间进行批量数据迁移的工具 结构化数据可以是MySQL、Oracle等关系型数据库 把关系型数据库的数据导入到 Hadoop 与其相关的系统 把数据从 Hadoop 系统里抽取并导出到关系型数据库里 底层用 MapReduce 实现数据 命令执行过程中map 0% ,Reduce0%----》map 100% ,Reduce 100% idnameage1zhangsan18 1.2 Sqoop安装 下载、上传、解压、重命名和授权 https://mirrors.tuna.tsinghua.edu.cn/apache/sqoop/1.3.7/sqoop-1.3.7.bin__hadoop-2.6.0.tar.gz 上传到 /home/hadoop 目录直接在xshell拖拽进入家目录即可 #Sqoop的安装 sudo tar -xvf sqoop-1.3.7.bin__hadoop-2.6.0.tar.gz -C /usr/local #改名 sudo mv /usr/local/sqoop-1.3.7.bin__hadoop-2.6.0/ /usr/local/sqoop #授权 sudo chown -R hadoop /usr/local/sqoop1.3 Sqoop配置和验证 1.3.1 sqoop配置 #1、修改配置文件 mv /usr/local/sqoop/conf/sqoop-env-template.sh /usr/local/sqoop/conf/sqoop-env.sh# 进入配置目录把各个组件的路径写入 cd /usr/local/sqoop/conf/ sudo vim sqoop-env.sh #2、上传 jar 文件 cd /usr/local/sqoop/lib/ #2.1 上传 MySQL 的驱动文件,拖拽上传进xshell#2.2拷贝 hive 的驱动文件 cp /usr/local/hive/lib/hive-common-2.3.7.jar /usr/local/sqoop/lib/#3、配置环境变量 #编辑环境变量 vim /home/hadoop/.bashrc#在环境变量最后添加以下内容 export SQOOP_HOME/usr/local/sqoop export PATH$PATH:$SQOOP_HOME/bin#刷新环境变量 source /home/hadoop/.bashrc#验证是否安装成功 sqoop version1.3.2 在MySQL中创建sqoop用户 #查看管理员账户和密码 sudo cat /etc/mysql/debian.cnf #用查看的账户和密码登录 mysql -u debian-sys-maint -p#登录成功再执行下面命令可参考下图 #创建sqoop用户 create user sqoop% identified by 123456; #并对用户授权 grant all privileges on sqoop.* to sqoop%; #刷新使授权生效 flush privileges;#退出 exit执行MySQL示例 1.3.3 验证sqoop是否成功运行及常见错误 #测试能否成功连接数据库 #测试能否成功连接数据库 sqoop list-databases --connect jdbc:mysql://master:3306/?useSSLfalse --username sqoop --password 123456使用命令报错时 #测试能否成功连接数据库 sqoop list-databases --connect jdbc:mysql://master:3306/?useSSLfalse --username sqoop --password 123456**报错信息如下**ERROR manager.CatalogQueryManager: Failed to list databases com.mysql.jdbc.exceptions.jdbc4.CommunicationsException: Communications link failure 完整信息在下面 Warning: /usr/local/sqoop/../hcatalog does not exist! HCatalog jobs will fail. Please set $HCAT_HOME to the root of your HCatalog installation. Warning: /usr/local/sqoop/../accumulo does not exist! Accumulo imports will fail. Please set $ACCUMULO_HOME to the root of your Accumulo installation. 。。。at org.apache.sqoop.Sqoop.runTool(Sqoop.java:243)at org.apache.sqoop.Sqoop.main(Sqoop.java:252) Caused by: java.net.ConnectException: Connection refused (Connection refused)at java.net.PlainSocketImpl.socketConnect(Native Method)at java.net.AbstractPlainSocketImpl.doConnect(AbstractPlainSocketImpl.java:350)at java.net.AbstractPlainSocketImpl.connectToAddress(AbstractPlainSocketImpl.java:206)at java.net.AbstractPlainSocketImpl.connect(AbstractPlainSocketImpl.java:188)at java.net.SocksSocketImpl.connect(SocksSocketImpl.java:392)at java.net.Socket.connect(Socket.java:589)at com.mysql.jdbc.StandardSocketFactory.connect(StandardSocketFactory.java:211)at com.mysql.jdbc.MysqlIO.init(MysqlIO.java:301)... 24 more原因没有开启远程登录需要修改配置 **解决方案**#查看状态防火墙是inactive状态 sudo ufw status #查看端口 netstat -an | grep 3306~~~shell#编辑端口 #注释掉43行的bind-address sudo vim /etc/mysql/mysql.conf.d/mysqld.cnf ##修改端口需要重启虚拟机 sudo reboot 成功状态 ​ **如果Sqoop转移数据到Hive不成功需注意**之前Hive初始化是在单机伪分布式状态下进行的和现在集群状态不符需要重新格式化HIve删除MySQL的hive元数据库 #hive如果想重新配置的同学 #在配置完master的hive之后不要初始化根据情形进行下面操作 #情形一如果单机节点没有配好#按照Hive单机的安装步骤在master配置完hive后需要同步给slave1和slave2scp /usr/local/hive hadoopslave1:/usr/local/scp /usr/local/hive hadoopslave2:/usr/local/#同步系统环境变量scp /home/hadoop/.bashrc hadoopslave1:/home/hadoopscp /home/hadoop/.bashrc hadoopslave2:/home/hadoop#三个节点上刷新source /home/hadoop/.bashrc#情形二单机已经成功其他节点是克隆出来的#查看mysql数据里的hive元数据信息#查看默认的账号和密码使用以下命令sudo cat /etc/mysql/debian.cnfmysql -u debian-sys-maint -p #输入cat命令显示的密码#当前节点数据库有哪些show databases;#查看的密码#三个节点都要执行超级用户登录后查看有没有hive的数据库有的话删除drop database hive;#三个节点初始化操作schematool -dbType mysql -initSchema验证状态-Hive初始化成功 再次执行查询数据库命令 #测试能否成功连接数据库 sqoop list-databases --connect jdbc:mysql://master:3306/?useSSLfalse --username sqoop --password 1234561.3.4 使用前的数据准备 1.3.4.1 mysql数据准备(下面操作可在dbeaver中进行) #1使用sqoop用户登录MySQL使用以下命令 #如果使用dbeaver连接MySQL不用在输入这步命令了 mysql -u sqoop -p#2创建并使用使用sqoop数据库使用以下命令 create database sqoop use sqoop#3创建student表用于演示导入MySQL数据到HDFS使用以下命令 CREATE TABLE IF NOT EXISTS student( id int PRIMARY KEY COMMENT 编号,name varchar(20) COMMENT 名字,age int COMMENT 年龄 )COMMENT 学生表;#4 向student表插入一些数据使用以下命令 INSERT INTO student VALUES(1, zhangsan, 20); INSERT INTO student VALUES(2, lisi, 24); INSERT INTO student VALUES(3, wangwu, 18); INSERT INTO student VALUES(4, zhaoliui, 22);#5 创建student2表用于装载Hive导出的数据使用以下命令 CREATE TABLE IF NOT EXISTS student2( id int PRIMARY KEY COMMENT 编号, name varchar(20) COMMENT 名字, age int COMMENT 年龄 )COMMENT 学生表;dbeaver远程登录MySQL失败 #查看状态 sudo ufw status #查看端口 netstat -an | grep 3306#编辑端口 #注释掉43行的bind-address sudo vim /etc/mysql/mysql.conf.d/mysqld.cnf #bind-address 127.0.0.1##修改端口需要重启虚拟机 sudo reboot数据准备完成后 student表 student2表 1.3.4.2 Hive的准备也在dbeaver中执行 --1 启动hive使用以下命令 hiveserver2 --2 打开DBeaver连接Hive--3 创建sqoop数据库使用以下命令 CREATE DATABASE sqoop;--4 使用sqoop数据库使用以下命令 USE sqoop;--5 创建student表用于装载MySQL导入的数据使用以下命令 CREATE TABLE IF NOT EXISTS student(id INT COMMENT 编号,name STRING COMMENT 名字,age INT COMMENT 年龄 ) COMMENT 学生表 ROW FORMAT DELIMITED FIELDS TERMINATED BY ;如果搭建完HadoopHA后在启动Hive报错 hive启动时,提示java.net.UnknownHostExceptionns 注意复制HDFS的core-site.xml和hdfs-site.xml到hive目录的conf下面 cp /usr/local/hadoop/etc/hadoop/hdfs-site.xml /usr/local/hive/conf cp /usr/local/hadoop/etc/hadoop/core-site.xml /usr/local/hive/conf1.5 Sqoop命令 Sqoop 的常用命令 命令说明list-databases列出所有数据库名list-tables列出某个数据库下所有表import将数据导入到 HDFS 集群,hive,hbase,hdfs本身等等export将 HDFS 集群数据导出help打印 sqoop 帮助信息version打印 sqoop 版本信息 Sqoop 的公共参数 命令说明–connect连接关系型数据库的URL–username连接数据库的用户名–password连接数据库的密码 Sqoop的 import 命令参数 参数说明–fields-terminated-byHive中的列分隔符默认是逗号–lines-terminated-byHive中的行分隔符默认是\n–append将数据追加到HDFS中已经存在的DataSet中如果使用该参数sqoop会把数据先导入到临时文件目录再合并。–columns指定要导入的字段–m或–num-mappers启动N个map来并行导入数据默认4个。–query或**–e**将查询结果的数据导入使用时必须伴随参–target-dir–hive-table如果查询中有where条件则条件后必须加上$CONDITIONS关键字–table 关系数据库的表名–target-dir 指定导入数据存储的HDFS路径–null-stringstring类型的列如果null替换为指定字符串–null-non-string非string类型的列如果null替换为指定字符串–check-column作为增量导入判断的列名–incrementalmodeappend或lastmodified–last-value指定某一个值用于标记增量导入的位置 Sqoop 的 export 命令参数 参数说明–input-fields-terminated-byHive中的列分隔符默认是逗号–input-lines-terminated-byHive中的行分隔符默认是\n–export-dir存放数据的HDFS的源目录-m或–num-mappers启动N个map来并行导出数据默认4个–table指定导出到哪个RDBMS中的表–update-key对某一列的字段进行更新操作–update-modeupdateonly或allowinsert默认 Sqoop 的命令案例 导入到HDFS #查看MySQL中已有的数据库名称 sqoop list-databases --connect jdbc:mysql://localhost:3306/ --username sqoop --password 123456#查看MySQL中Sqoop数据库中的表使用以下命令 sqoop list-tables --connect jdbc:mysql://localhost:3306/sqoop --username sqoop --password 123456#导入全部MySQL数据到HDFS执行以下命令 sqoop import --connect jdbc:mysql://localhost:3306/sqoop --username sqoop --password 123456 --table student --target-dir /user/student --delete-target-dir -m 1#执行完成后去HDFS查看数据是否导入成功使用以下命令 hdfs dfs -cat /user/student/part-m-00000#导入部分mysql数据到HDFS(导入时筛选) #-- query不与--table同时使用 #必须在where后面加上$CONDITIONS sqoop import --connect jdbc:mysql://localhost:3306/sqoop --username sqoop --password 123456 --target-dir /user/student --delete-target-dir -m 1 --query select * from student where age 20 and $CONDITIONS查看–target-dir指定的路径 导入到Hive #导入MySQL数据到hive sqoop import --connect jdbc:mysql://localhost:3306/sqoop --username sqoop --password 123456 --table student --target-dir /user/student2 --delete-target-dir --hive-import --fields-terminated-by --columns id,name,age --hive-overwrite --hive-table sqoop.student -m 1#导入部分MySQL数据到hive(覆盖导入) sqoop import --connect jdbc:mysql://localhost:3306/sqoop --username sqoop --password 123456 --target-dir /user/student2 --delete-target-dir -m 1 --query select * from student where age 20 and $CONDITIONS --hive-import --fields-terminated-by --columns id,name,age --hive-overwrite --hive-table sqoop.student2 #增量导入部分MySQL数据到hive #--incremental append不能和--delete-target-dir一起用 sqoop import --connect jdbc:mysql://localhost:3306/sqoop --username sqoop --password 123456 --table student --target-dir /user/student2 --hive-import --fields-terminated-by --columns id,name,age --hive-table sqoop.student2 --check-column id --incremental append --last-value 3 -m 1问题导入数据权限不足导入hive失败 Hdfs页面操作文件出现 Permission denied: userdr.who, #在xshell hdfs dfs -chmod -R 755 /导入到HBase #导入数据到HBase需要提前创建对应的表student #导入数据之前 hbase shell create student,info#开始执行导入命令 sqoop import --connect jdbc:mysql://localhost:3306/sqoop --username sqoop --password 123456 -table student -hbase-table student --hbase-row-key id --column-family info --columns id,name,age --split-by id -m -1Hive导出到MySQL #Sqoop 的导出命令案例 sqoop export --connect jdbc:mysql://localhost:3306/sqoop --username sqoop --password 123456 --table student2 --export-dir /usr/local/hive/warehouse/sqoop.db/student --input-fields-terminated-by -m 12. Flume 2.1Flume简介 Flume是一个分布式的、高可靠的、高可用的将大批量的不同数据源的日志数据收集、聚合、移动**到数据中心**HDFS进行存储的系统 1、可以高速采集数据采集的数据能够以想要的文件格式及压缩方式存储在hdfs上 2、事务功能保证了数据在采集的过程中数据不丢失 原子性 3、部分Source保证了Flume挂了以后重启依旧能够继续在上一次采集点采集数据真正做到数据零丢失。 2.2Flume架构 Agent 是 Flume 中最小的独立运行单位一个 agent 就是一个 JVMjava虚拟机 含有三个核心组件分别是 source、channel 和 sink 2.3 Flume安装 #下载、上传、解压、重命名和授权 https://mirrors.tuna.tsinghua.edu.cn/apache/flume/1.9.0/apache-flume-1.9.0-bin.tar.gz#上传到 /home/hadoop 目录 sudo tar -xvf apache-flume-1.9.0-bin.tar.gz -C /usr/localsudo mv /usr/local/apache-flume-1.9.0-bin/ /usr/local/flumesudo chown -R hadoop /usr/local/flume2.4 Flume配置 配置环境变量 #编辑环境变量 vim /home/hadoop/.bashrc#在环境变量最后添加以下内容 export FLUME_HOME/usr/local/flume export PATH$PATH:$FLUME_HOME/bin#刷新环境变量 source /home/hadoop/.bashrc配置 Agent # 为 agent 起个名字叫做 a1 # 设置 a1 的 sources 叫做 r1 a1.sources r1# 设置 a1 的 sinks 叫做 k1 a1.sinks k1# 设置 a1 的 channels 叫做 c1 a1.channels c1配置Source # 设置 r1 的类型是 exec用于采集命令产生的数据 a1.sources.r1.type exec# 设置 r1 采集 tail -F 命令产生的数据 a1.sources.r1.command tail -F /home/hadoop/tail-test.txt配置 Channel 两种常见类型MemoryChannel和FileChannel # 设置 c1 的类型是 memory a1.channels.c1.type memory# 设置 c1 的缓冲区容量 a1.channels.c1.capacity 1000 a1.channels.c1.transactionCapacity 100配置 Sink # 设置 k1 的类型是 hdfs a1.sinks.k1.type hdfs # 设置 k1 输出路径按照时间在 hdfs 上创建相应的目录 a1.sinks.k1.hdfs.path /flume/events/%y-%m-%d/%H%M/%S a1.sinks.k1.hdfs.filePrefix events- # 设置 k1 输出的数据保存为文本 a1.sinks.k1.hdfs.fileType DataStream a1.sinks.k1.hdfs.writeFormat Text # 把时间戳放入数据的头中 a1.sinks.k1.hdfs.useLocalTimeStamp true组装 Source、Channel 和 Sink # 设置 r1 连接 c1 a1.sources.r1.channels c1# 设置 k1 连接 c1 a1.sinks.k1.channel c12.5 Flume使用 了解tail -F的命令 #1进入/home/hadoop目录使用以下命令 cd /home/hadoop/ #2创建touch tail-test.txt文件使用以下命令 touch tail-test.txt #3向tail-test.txt文件中追加一些内容使用以下命令 echo hello 11111 tail-test.txt echo hello 22222 tail-test.txt echo hello 33333 tail-test.txt #4查看tail-test.txt文件中的内容使用以下命令 cat tail-test.txt #5复制新开一个xshell窗口监控tail-test.txt文件内容的变化使用以下命令 tail -F tail-test.txt #6回到上一个xshell窗口继续向tail-test.txt文件中追加一些内容使用以下命令 echo hello 44444 tail-test.txt echo hello 55555 tail-test.txt echo hello 66666 tail-test.txt #查看tail -F命令是否监控到内容的变化使用flume 目标把tail-test.txt文件中新增的内容给采集到HDFS #搭配着Flume把tail-test.txt文件中新增的内容给采集到HDFS上。 #1新开一个xshell窗口创建exec-memory-hdfs.properties文件使用以下命令 touch exec-memory-hdfs.properties #2编辑touch exec-memory-hdfs.properties文件填写以下内容 sudo vim exec-memory-hdfs.properties # 单节点的 flume 配置文件 # 为 agent 起个名字叫做 a1 # 设置 a1 的 sources 叫做 r1 a1.sources r1# 设置 a1 的 sinks 叫做 k1 a1.sinks k1# 设置 a1 的 channels 叫做 c1 a1.channels c1# 设置 r1 的类型是 exec用于采集命令产生的数据 a1.sources.r1.type exec# 设置 r1 采集 tail -F 命令产生的数据 a1.sources.r1.command tail -F /home/hadoop/tail-test.txt# 设置 c1 的类型是 memory a1.channels.c1.type memory# 设置 c1 的缓冲区容量 a1.channels.c1.capacity 1000 a1.channels.c1.transactionCapacity 100# 设置 k1 的类型是 hdfs a1.sinks.k1.type hdfs# 设置 k1 输出路径按照时间在 hdfs 上创建相应的目录 a1.sinks.k1.hdfs.path /flume/events/%y-%m-%d/%H%M/%S a1.sinks.k1.hdfs.filePrefix events-# 设置 k1 输出的数据保存为文本 a1.sinks.k1.hdfs.fileType DataStream a1.sinks.k1.hdfs.writeFormat Text# 把时间戳放入数据的头中 a1.sinks.k1.hdfs.useLocalTimeStamp true# 设置 r1 连接 c1 a1.sources.r1.channels c1# 设置 k1 连接 c1 a1.sinks.k1.channel c1启动 Flume 启动三个节点zookeeper zkServer.sh start先启动hdfs和yarn start-dfs.sh start-yarn.sh启动 Flume #启动 Flume flume-ng agent -n a1 -c conf -f /home/hadoop/exec-memory-hdfs.properties验证flume #4在第一个xshell窗口大量的向tail-test.txt文件中追加数据 echo hello 44444 tail-test.txt echo hello 55555 tail-test.txt echo hello 6666 tail-test.txt#2. 在xshell里使用命令 hdfs dfs -cat /flume/events/目录的名称/文件名可以看到数据去HDFS的web监控页面查看是否采集到数据 能看到有新生成的目录 在xshell里使用命令 hdfs dfs -cat /flume/events/目录的名称/文件名可以看到数据

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/910164.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

上海营销网站推广多有什么做ppt的网站吗

目录 一、4大特性(ACID)二、隔离级别三、传播机制 一、4大特性(ACID) 原子性(A):在一个事务中,要么全部成功,要么全部失败。一致性(C)&#xff1…

# Xilnx FPGA 资源结构

Xilnx FPGA 资源结构内容来自b站uo: https://space.bilibili.com/477924102?spm_id_from=333.788.upinfo.head.clickfpga 主要资源CLB 的结构图中展示的是一个数字电路设计的部分,通常用于FPGA(现场可编程门阵列)设…

网站宣传文案范例亚马逊网站链接

当用客户端工具连接数据库 以root 用户登录后 无法给相关用户授权数据库等操作: 原因: root%表示 root用户 通过任意其他端访问操作 被拒绝! 授权即可: 登录server端: mysql -uroot -pxxxxx(使用账号密码登录linux mysql服务内部) 然后输入如下sql命令…

广州市建设工程安监站网站网站建设项目描述

为什么说重载是编译时的多态? 重载(Overloading)被称为编译时的多态,是因为它涉及到在编译阶段(而非运行时)根据方法签名的不同来选择正确的方法实现。重载发生在同一个类中,其中有多个方法具有…

dedecms 视频网站模板WordPress去掉文章摘要

ArkUI即方舟开发框架是HarmonyOS应用的UI开发提供了完整的基础设施,包括简洁的UI语法、丰富的UI功能(组件、布局、动画以及交互事件),以及实时界面预览工具等,可以支持开发者进行可视化界面开发。 开发文档地址 &…

软文网站模板网站建设陆金手指下拉壹玖

提示: 所有体系课见专栏:Go 项目开发极速入门实战课;欢迎加入我的训练营:云原生AI实战营,一个助力 Go 开发者在 AI 时代建立技术竞争力的实战营;本节课最终源码位于 fastgo 项目的 feature/s14 分支&#x…

各大网站免费观看优化大师软件大全

Java异常详解 异常分类1.Throwable2. Error(错误)3. Exception(异常)3.1 运行时异常 RuntimeException3.2 编译时异常(受检查异常)ClassNotFoundException + IOException4.常见的运行时异常5.异常如何处理Java 的异常处理是通过 5 个关键词来实现的:try、catch、throw、…

昆明做网站建设价位wordpress 做分销

一、platform总线、设备与驱动 在Linux 2.6 的设备驱动模型中,关心总线、设备和驱动3个实体,总线将设备和驱动绑定。在系统每注册一个设备的时候,会寻找与之匹配的驱动;相反的,在系统每注册一个驱动的时候,…

论坛备案 和网站备案最佳品牌营销策划公司

猫脸码客作为一个专注于开源数据集分享的公众号,致力于为广大用户提供丰富、优质的数据资源。我们精心筛选和整理各类开源数据集,涵盖机器学习、深度学习、自然语言处理等多个领域,以满足不同用户的需求。 (https://img-blog.csdnimg.cn/d98…

app网站建设济宁下面哪一项不属于网络营销方式

// 去掉数组中的空数据 for (let i 0; i < arr.length; i) {if (arr[i] null || arr[i] undefined || arr[i] "") {arr.splice(i, 1);i--;} }

有哪些好的做问卷调查的网站电商设计师常用的网站

引言 最近在学习Mybatis Plus的使用&#xff0c;希望通过spring boot快速将mybatis plus整合进来。 对于springboot项目&#xff0c;mybatis plus团队也有自己的启动器 &#xff1a;mybatis-plus-boot-starter。这个依赖内部已经整合了mybatis-spring&#xff0c;也包括非快速…

2025年录音转文字技术解析与实用工具评测 - 指南

2025年录音转文字技术解析与实用工具评测 - 指南pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", …

CF2147H Maxflow GCD Coloring 题解

Description 给定一个无向图 \(G\),它有 \(n\) 个顶点,每条边上有一个正整数容量。我们记 \(\textsf{maxflow}(u,v)\) 为图中从源点 \(u\) 到汇点 \(v\) 的最大流值。 我们称图 \(G\) 是 好图,如果存在一个整数 \(d…

详细介绍:深入理解 JVM 字节码文件:从组成结构到 Arthas 工具实践

pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !important; font-family: "Consolas", "Monaco", "Courier New", …

免费做网站优化网站建设需要费用

目录 1.算法运行效果图预览 2.算法运行软件版本 3.部分核心程序 4.算法理论概述 4.1 人脸检测 4.2 局部区域选择 4.3 特征提取 5.算法完整程序工程 1.算法运行效果图预览 2.算法运行软件版本 matlab2022a 3.部分核心程序 .........................................…

借助S参数测量评估电容器阻抗第 2 部分

借助S参数测量评估电容器阻抗第 2 部分2025-09-22 19:37 tlnshuju 阅读(0) 评论(0) 收藏 举报pre { white-space: pre !important; word-wrap: normal !important; overflow-x: auto !important; display: block !…

诸城建设局网站郑州seo优化

为什么80%的码农都做不了架构师&#xff1f;>>> find / -name httpd.conf find / -name access_log 2>/dev/null find /etc -name *srm* find / -amin -10 # 查找在系统中最后10分钟访问的文件 find / -atime -2 # 查找在系统中最后48小时访问的文件 find / -mm…

网站管理设置湖州网站开发公司

解决办法&#xff1a; What solved was to go to Navigate > Reveal in Project Navigator . After this, the structure appeared again.

代做企业网站备案wordpress可视化模板编辑器

简介 本来宏哥一开始打算用真机做的&#xff0c;所以在前边搭建环境时候就没有下载SDK&#xff0c;但是由于许多小伙伴通过博客发短消息给宏哥留言说是没有真机&#xff0c;所以顺应民意整理一下模拟器&#xff0c;毕竟“得民心者&#xff0c;得天下”。SDK顾名思义&#xff0c…

瑞安做微网站平台公司信用评级

逆矩阵&#xff1a;解开线性代数之谜的魔法钥匙 大家好&#xff0c;我是免费搭建查券返利机器人赚佣金就用微赚淘客系统3.0的小编&#xff0c;也是冬天不穿秋裤&#xff0c;天冷也要风度的程序猿&#xff01;今天&#xff0c;让我们一同深入探讨线性代数中的重要主题——逆矩阵…