企业网站建设 制作做局域网网站教程

bicheng/2026/1/26 16:05:22/文章来源:
企业网站建设 制作,做局域网网站教程,怎样做教育视频网站,专业制作网站 地摊文章目录 前言一、创建hdfs-demo项目1. 在idea上创建maven项目2. 导入hadoop相关依赖 二、常用 HDFS Java API1. 简介2. 获取文件系统实例3. 创建目录4. 创建文件4.1 创建文件并写入数据4.2 创建新空白文件 5. 查看文件内容6. 查看目录下的文件或目录信息6.1 查看指定目录下的文… 文章目录 前言一、创建hdfs-demo项目1. 在idea上创建maven项目2. 导入hadoop相关依赖 二、常用 HDFS Java API1. 简介2. 获取文件系统实例3. 创建目录4. 创建文件4.1 创建文件并写入数据4.2 创建新空白文件 5. 查看文件内容6. 查看目录下的文件或目录信息6.1 查看指定目录下的文件或目录信息6.2 递归查看指定目录下的所有文件信息6.3 查看指定路径信息 7. 文件上传8. 向文件追加内容9. 文件下载10. 移动或重命名11. 复制或重命名文件12. 删除文件或目录12.1 删除文件12.1 删除目录 13. 检查路径是否存在 前言 本文将详细介绍如何使用Java编程语言与HDFS进行交互。我们将通过创建一个简单的Maven项目逐步演示HDFS的常用Java API包括创建目录、上传和下载文件、查看文件内容、删除文件等操作。通过这些示例读者将能够掌握基本的HDFS操作并为后续的大数据处理打下坚实的基础。 一、创建hdfs-demo项目 1. 在idea上创建maven项目 打开idea新建项目如下图。 选择Java项目输入项目名称选择构建系统为Maven选择JDK为1.8然后点击创建。 2. 导入hadoop相关依赖 如下图所示在pom.xml文件中添加Hadoop相关依赖。 二、常用 HDFS Java API 1. 简介 Hadoop分布式文件系统HDFS是Apache Hadoop的核心组件之一设计用于存储大量的数据并提供高吞吐量的数据访问。HDFS Java API为开发者提供了直接与HDFS交互的能力允许执行诸如创建目录、上传和下载文件、读取和写入文件等操作。 2. 获取文件系统实例 编写一个getFs方法用于返回一个文件系统实例。 public static FileSystem getFs() throws IOException, InterruptedException {// 1. 创建Hadoop配置对象并设置配置信息Configuration conf new Configuration();conf.set(fs.defaultFS, hdfs://192.168.121.100:9000);conf.set(fs.hdfs.impl, org.apache.hadoop.hdfs.DistributedFileSystem);// 2. 获取文件系统实例设置文件路径return FileSystem.get(URI.create(), conf, root); }3. 创建目录 可以使用mkdirs()方法来创建新的目录。 package org.example;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.apache.hadoop.fs.permission.FsPermission;import java.io.IOException; import java.net.URI;public class Main {public static void main(String[] args) throws IOException, InterruptedException {FileSystem fs getFs();// 创建目录/test/demoboolean mkdirs fs.mkdirs(new Path(/test/demo));if (mkdirs) {System.out.println(创建目录成功);} else {System.out.println(创建目录失败);}// 创建目录/test/demo2并设置权限为777boolean mkdirs2 fs.mkdirs(new Path(/test/demo2), new FsPermission(777));if (mkdirs2) {System.out.println(创建目录并设置权限成功);} else {System.out.println(创建目录并设置权限失败);}// 关闭文件系统fs.close();}public static FileSystem getFs() throws IOException, InterruptedException {// 1. 创建Hadoop配置对象并设置配置信息Configuration conf new Configuration();conf.set(fs.defaultFS, hdfs://192.168.121.100:9000);conf.set(fs.hdfs.impl, org.apache.hadoop.hdfs.DistributedFileSystem);// 2. 获取文件系统实例设置文件路径return FileSystem.get(URI.create(), conf, root);}}执行结果如下图所示 4. 创建文件 4.1 创建文件并写入数据 可以使用create()方法来创建文件并写入数据。 package org.example;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FSDataOutputStream; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path;import java.io.IOException; import java.net.URI;public class Main {public static void main(String[] args) throws IOException, InterruptedException {FileSystem fs getFs();// 创建文件/test/demo/text.txt并向文件中写入数据FSDataOutputStream fsDataOutputStream fs.create(new Path(/test/demo/text.txt));String dataStr 这是写入文件/test/demo/text.txt的示例数据\n;fsDataOutputStream.write(dataStr.getBytes());System.out.println(创建文件并写入数据成功);// 关闭文件系统fs.close();}public static FileSystem getFs() throws IOException, InterruptedException {// 1. 创建Hadoop配置对象并设置配置信息Configuration conf new Configuration();conf.set(fs.defaultFS, hdfs://192.168.121.100:9000);conf.set(fs.hdfs.impl, org.apache.hadoop.hdfs.DistributedFileSystem);// 2. 获取文件系统实例设置文件路径return FileSystem.get(URI.create(), conf, root);}}4.2 创建新空白文件 可以使用createNewFile()方法来创建新空白文件。 package org.example;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path;import java.io.IOException; import java.net.URI;public class Main {public static void main(String[] args) throws IOException, InterruptedException {FileSystem fs getFs();// 创建新空白文件/test/demo/text01.txtboolean newFile fs.createNewFile(new Path(/test/demo/text01.txt));if (newFile) {System.out.println(创建新空白文件成功);} else {System.out.println(创建新空白文件失败);}// 关闭文件系统fs.close();}public static FileSystem getFs() throws IOException, InterruptedException {// 1. 创建Hadoop配置对象并设置配置信息Configuration conf new Configuration();conf.set(fs.defaultFS, hdfs://192.168.121.100:9000);conf.set(fs.hdfs.impl, org.apache.hadoop.hdfs.DistributedFileSystem);// 2. 获取文件系统实例设置文件路径return FileSystem.get(URI.create(), conf, root);}}5. 查看文件内容 可以使用open()方法来打开文件并读取文件内容。 package org.example;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FSDataInputStream; import org.apache.hadoop.fs.FSDataOutputStream; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path;import java.io.BufferedReader; import java.io.IOException; import java.io.InputStreamReader; import java.net.URI;public class Main {public static void main(String[] args) throws IOException, InterruptedException {FileSystem fs getFs();// 打开文件/test/demo/text.txt并读取文件内容FSDataInputStream open fs.open(new Path(/test/demo/text.txt));BufferedReader bufferedReader new BufferedReader(new InputStreamReader(open));System.out.println(文件内容如下);String line;while ((line bufferedReader.readLine()) ! null) {System.out.println(line);}// 关闭文件系统fs.close();}public static FileSystem getFs() throws IOException, InterruptedException {// 1. 创建Hadoop配置对象并设置配置信息Configuration conf new Configuration();conf.set(fs.defaultFS, hdfs://192.168.121.100:9000);conf.set(fs.hdfs.impl, org.apache.hadoop.hdfs.DistributedFileSystem);// 2. 获取文件系统实例设置文件路径return FileSystem.get(URI.create(), conf, root);}}执行结果如下图所示 6. 查看目录下的文件或目录信息 6.1 查看指定目录下的文件或目录信息 可以使用listStatus()方法来查看目录下的文件或目录信息。 package org.example;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileStatus; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.apache.hadoop.fs.permission.FsPermission;import java.io.IOException; import java.net.URI; import java.time.Instant; import java.time.LocalDateTime; import java.time.ZoneOffset; import java.time.format.DateTimeFormatter;public class Main {public static void main(String[] args) throws IOException, InterruptedException {FileSystem fs getFs();// 查看目录/test下的文件或目录信息FileStatus[] fileStatuses fs.listStatus(new Path(/test));for (FileStatus fileStatus : fileStatuses) {System.out.println(文件或目录信息如下);FsPermission permission fileStatus.getPermission();short replication fileStatus.getReplication();String owner fileStatus.getOwner();String group fileStatus.getGroup();long size fileStatus.getLen();long blockSize fileStatus.getBlockSize();LocalDateTime localDateTime Instant.ofEpochMilli(fileStatus.getAccessTime()).atZone(ZoneOffset.systemDefault()).toLocalDateTime();String accessTime localDateTime.format(DateTimeFormatter.ofPattern(yyyy-MM-dd HH:mm:ss));Path path fileStatus.getPath();System.out.println(权限 permission \t 副本数 replication \t 所有者 owner \t 群组 group);System.out.println(大小 size \t 块大小 blockSize \t 访问时间 accessTime \t 路径 path);}// 关闭文件系统fs.close();}public static FileSystem getFs() throws IOException, InterruptedException {// 1. 创建Hadoop配置对象并设置配置信息Configuration conf new Configuration();conf.set(fs.defaultFS, hdfs://192.168.121.100:9000);conf.set(fs.hdfs.impl, org.apache.hadoop.hdfs.DistributedFileSystem);// 2. 获取文件系统实例设置文件路径return FileSystem.get(URI.create(), conf, root);}}执行结果如下图所示 6.2 递归查看指定目录下的所有文件信息 可以使用listFiles()方法来递归查看指定目录下的所有文件信息。 package org.example;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.*; import org.apache.hadoop.fs.permission.FsPermission;import java.io.IOException; import java.net.URI; import java.time.Instant; import java.time.LocalDateTime; import java.time.ZoneOffset; import java.time.format.DateTimeFormatter;public class Main {public static void main(String[] args) throws IOException, InterruptedException {FileSystem fs getFs();// 递归查看目录/test下的所有文件信息RemoteIteratorLocatedFileStatus listFiles fs.listFiles(new Path(/test), true);while (listFiles.hasNext()) {FileStatus fileStatus listFiles.next();System.out.println(文件或目录信息如下);FsPermission permission fileStatus.getPermission();short replication fileStatus.getReplication();String owner fileStatus.getOwner();String group fileStatus.getGroup();long size fileStatus.getLen();long blockSize fileStatus.getBlockSize();LocalDateTime localDateTime Instant.ofEpochMilli(fileStatus.getAccessTime()).atZone(ZoneOffset.systemDefault()).toLocalDateTime();String accessTime localDateTime.format(DateTimeFormatter.ofPattern(yyyy-MM-dd HH:mm:ss));Path path fileStatus.getPath();System.out.println(权限 permission \t 副本数 replication \t 所有者 owner \t 群组 group);System.out.println(大小 size \t 块大小 blockSize \t 访问时间 accessTime \t 路径 path);}// 关闭文件系统fs.close();}public static FileSystem getFs() throws IOException, InterruptedException {// 1. 创建Hadoop配置对象并设置配置信息Configuration conf new Configuration();conf.set(fs.defaultFS, hdfs://192.168.121.100:9000);conf.set(fs.hdfs.impl, org.apache.hadoop.hdfs.DistributedFileSystem);// 2. 获取文件系统实例设置文件路径return FileSystem.get(URI.create(), conf, root);}}执行结果如下图所示 6.3 查看指定路径信息 可以使用getFileStatus()方法来查看指定路径信息。 package org.example;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileStatus; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.apache.hadoop.fs.permission.FsPermission;import java.io.IOException; import java.net.URI; import java.time.Instant; import java.time.LocalDateTime; import java.time.ZoneOffset; import java.time.format.DateTimeFormatter;public class Main {public static void main(String[] args) throws IOException, InterruptedException {FileSystem fs getFs();// 查看目录/test的信息FileStatus fileStatus fs.getFileStatus(new Path(/test));System.out.println(路径信息如下);FsPermission permission fileStatus.getPermission();short replication fileStatus.getReplication();String owner fileStatus.getOwner();String group fileStatus.getGroup();long size fileStatus.getLen();long blockSize fileStatus.getBlockSize();LocalDateTime localDateTime Instant.ofEpochMilli(fileStatus.getAccessTime()).atZone(ZoneOffset.systemDefault()).toLocalDateTime();String accessTime localDateTime.format(DateTimeFormatter.ofPattern(yyyy-MM-dd HH:mm:ss));Path path fileStatus.getPath();System.out.println(权限 permission \t 副本数 replication \t 所有者 owner \t 群组 group);System.out.println(大小 size \t 块大小 blockSize \t 访问时间 accessTime \t 路径 path);// 关闭文件系统fs.close();}public static FileSystem getFs() throws IOException, InterruptedException {// 1. 创建Hadoop配置对象并设置配置信息Configuration conf new Configuration();conf.set(fs.defaultFS, hdfs://192.168.121.100:9000);conf.set(fs.hdfs.impl, org.apache.hadoop.hdfs.DistributedFileSystem);// 2. 获取文件系统实例设置文件路径return FileSystem.get(URI.create(), conf, root);}}执行结果如下图所示 7. 文件上传 可以使用copyFromLocalFile()方法从本地上传文件到hdfs。 package org.example;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path;import java.io.IOException; import java.net.URI;public class Main {public static void main(String[] args) throws IOException, InterruptedException {FileSystem fs getFs();// 把本地文件D:\shiyan.csv上传到hdfs的/test/demo目录上传后不删除本地文件D:\shiyan.csvfs.copyFromLocalFile(new Path(D:\\shiyan.csv), new Path(/test/demo));// 把本地文件D:\shiyan.csv上传到hdfs的/test/demo目录上传后不删除本地文件D:\shiyan.csv且如果hdfs上存在相同的文件则覆盖// fs.copyFromLocalFile(false, true, new Path(D:\\shiyan.csv), new Path(/test/demo));System.out.println(文件上传成功);// 关闭文件系统fs.close();}public static FileSystem getFs() throws IOException, InterruptedException {// 1. 创建Hadoop配置对象并设置配置信息Configuration conf new Configuration();conf.set(fs.defaultFS, hdfs://192.168.121.100:9000);conf.set(fs.hdfs.impl, org.apache.hadoop.hdfs.DistributedFileSystem);// 2. 获取文件系统实例设置文件路径return FileSystem.get(URI.create(), conf, root);}}8. 向文件追加内容 可以使用append()方法追加内容到hdfs上的指定文件。 package org.example;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FSDataOutputStream; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path;import java.io.IOException; import java.net.URI;public class Main {public static void main(String[] args) throws IOException, InterruptedException {FileSystem fs getFs();// 向hdfs上文件/test/demo/text01.txt写入数据FSDataOutputStream fsDataOutputStream fs.append(new Path(/test/demo/text01.txt));// 把9,7,6,7,9写入文件/test/demo/text01.txt并换行fsDataOutputStream.write(9,7,6,7,9\n.getBytes());// 把缓冲区数据刷入文件fsDataOutputStream.flush();// 关闭资源fsDataOutputStream.close();System.out.println(追加数据到文件成功);// 关闭文件系统fs.close();}public static FileSystem getFs() throws IOException, InterruptedException {// 1. 创建Hadoop配置对象并设置配置信息Configuration conf new Configuration();conf.set(fs.defaultFS, hdfs://192.168.121.100:9000);conf.set(fs.hdfs.impl, org.apache.hadoop.hdfs.DistributedFileSystem);// 2. 获取文件系统实例设置文件路径return FileSystem.get(URI.create(), conf, root);}}9. 文件下载 可以使用copyToLocalFile()方法从hdfs下载文件到本地。 package org.example;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path;import java.io.IOException; import java.net.URI;public class Main {public static void main(String[] args) throws IOException, InterruptedException {FileSystem fs getFs();// 把hdfs上文件/test/demo/text01.txt下载到本地D:\目录fs.copyToLocalFile(new Path(/test/demo/text01.txt), new Path(D:\\));System.out.println(文件下载成功);// 关闭文件系统fs.close();}public static FileSystem getFs() throws IOException, InterruptedException {// 1. 创建Hadoop配置对象并设置配置信息Configuration conf new Configuration();conf.set(fs.defaultFS, hdfs://192.168.121.100:9000);conf.set(fs.hdfs.impl, org.apache.hadoop.hdfs.DistributedFileSystem);// 2. 获取文件系统实例设置文件路径return FileSystem.get(URI.create(), conf, root);}}10. 移动或重命名 可以使用rename()方法来移动或重命名文件。 package org.example;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path;import java.io.IOException; import java.net.URI;public class Main {public static void main(String[] args) throws IOException, InterruptedException {FileSystem fs getFs();// 把hdfs上文件/test/demo/text.txt重命名为/test/demo/text02.txtboolean rename fs.rename(new Path(/test/demo/text.txt), new Path(/test/demo/text02.txt));if (rename) {System.out.println(文件重命名成功);} else {System.out.println(文件重命名失败);}// 把hdfs上文件/test/demo/text01.txt移动到/test/demo2目录boolean rename2 fs.rename(new Path(/test/demo/text02.txt), new Path(/test/demo2));if (rename2) {System.out.println(文件移动成功);} else {System.out.println(文件移动失败);}// 关闭文件系统fs.close();}public static FileSystem getFs() throws IOException, InterruptedException {// 1. 创建Hadoop配置对象并设置配置信息Configuration conf new Configuration();conf.set(fs.defaultFS, hdfs://192.168.121.100:9000);conf.set(fs.hdfs.impl, org.apache.hadoop.hdfs.DistributedFileSystem);// 2. 获取文件系统实例设置文件路径return FileSystem.get(URI.create(), conf, root);}}执行结果如下图所示 11. 复制或重命名文件 可以使用FileUtil.copy()方法来复制或重命名文件。 package org.example;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.FileUtil; import org.apache.hadoop.fs.Path;import java.io.IOException; import java.net.URI;public class Main {public static void main(String[] args) throws IOException, InterruptedException {FileSystem fs getFs();// 把hdfs上文件/test/demo/text01.txt复制到/test/demo2目录boolean copy FileUtil.copy(fs, new Path(/test/demo/text01.txt), fs, new Path(/test/demo2), false, true, fs.getConf());if (copy) {System.out.println(复制文件成功);} else {System.out.println(复制文件失败);}// 把hdfs上文件/test/demo/text01.txt复制并重命名为/test/demo2/text03.txtboolean copy2 FileUtil.copy(fs, new Path(/test/demo/text01.txt), fs, new Path(/test/demo2/text03.txt), false, true, fs.getConf());if (copy2) {System.out.println(复制文件并重命名成功);} else {System.out.println(复制文件并重命名失败);}// 关闭文件系统fs.close();}public static FileSystem getFs() throws IOException, InterruptedException {// 1. 创建Hadoop配置对象并设置配置信息Configuration conf new Configuration();conf.set(fs.defaultFS, hdfs://192.168.121.100:9000);conf.set(fs.hdfs.impl, org.apache.hadoop.hdfs.DistributedFileSystem);// 2. 获取文件系统实例设置文件路径return FileSystem.get(URI.create(), conf, root);}}执行结果如下图所示 12. 删除文件或目录 12.1 删除文件 可以使用delete()方法来删除文件。 package org.example;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path;import java.io.IOException; import java.net.URI;public class Main {public static void main(String[] args) throws IOException, InterruptedException {FileSystem fs getFs();// 删除hdfs上文件/test/demo2/text03.txtboolean delete fs.delete(new Path(/test/demo2/text03.txt), false);if (delete) {System.out.println(删除文件成功);} else {System.out.println(删除文件失败);}// 关闭文件系统fs.close();}public static FileSystem getFs() throws IOException, InterruptedException {// 1. 创建Hadoop配置对象并设置配置信息Configuration conf new Configuration();conf.set(fs.defaultFS, hdfs://192.168.121.100:9000);conf.set(fs.hdfs.impl, org.apache.hadoop.hdfs.DistributedFileSystem);// 2. 获取文件系统实例设置文件路径return FileSystem.get(URI.create(), conf, root);}}12.1 删除目录 可以使用delete()方法来删除目录。 package org.example;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path;import java.io.IOException; import java.net.URI;public class Main {public static void main(String[] args) throws IOException, InterruptedException {FileSystem fs getFs();// 递归删除hdfs上目录/test/demo2boolean delete fs.delete(new Path(/test/demo2), true);if (delete) {System.out.println(删除目录成功);} else {System.out.println(删除目录失败);}// 关闭文件系统fs.close();}public static FileSystem getFs() throws IOException, InterruptedException {// 1. 创建Hadoop配置对象并设置配置信息Configuration conf new Configuration();conf.set(fs.defaultFS, hdfs://192.168.121.100:9000);conf.set(fs.hdfs.impl, org.apache.hadoop.hdfs.DistributedFileSystem);// 2. 获取文件系统实例设置文件路径return FileSystem.get(URI.create(), conf, root);}}13. 检查路径是否存在 可以使用exists()方法来检查路径是否存在。 package org.example;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path;import java.io.IOException; import java.net.URI;public class Main {public static void main(String[] args) throws IOException, InterruptedException {FileSystem fs getFs();// 检查路径/test/demo是否存在boolean exists fs.exists(new Path(/test/demo));if (exists) {System.out.println(路径存在);} else {System.out.println(路径不存在);}// 关闭文件系统fs.close();}public static FileSystem getFs() throws IOException, InterruptedException {// 1. 创建Hadoop配置对象并设置配置信息Configuration conf new Configuration();conf.set(fs.defaultFS, hdfs://192.168.121.100:9000);conf.set(fs.hdfs.impl, org.apache.hadoop.hdfs.DistributedFileSystem);// 2. 获取文件系统实例设置文件路径return FileSystem.get(URI.create(), conf, root);}}

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/86480.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

官方网站建设的目的阿里云域名查询系统

新建一个文件夹,再在新建的文件夹里写html文件,再用快捷键:altb打开即可。

网站群建设 效果网页界面模板设计

界面很简单,虽然是英文,但基本也能看懂,参数调一调,随机生成不重复的8K高清图片。 这种图片可能对普通人感觉很奇怪,有什么用呢?会C4D建模渲染的同学应该会明白,特别是建一些科技类的场景背景&a…

免费wap自助建站系统网站建设语言

该楼层疑似违规已被系统折叠 隐藏此楼查看此楼题目要求是你输入a->b->c->d,然后存在内存里,然后改变在内存里的存储,改成存d->c->b->a,然后输出还是abcd,能不能就是用一个数组也存一份输入的&#x…

国外做图标网站qq电脑版网页登录入口

解决Java调用Python代码返回中文乱码问题 一、乱码原因分析 在Java调用Python代码执行时遇到乱码,我们的第一反应可能是检查文件编码设置是否一致。但在本例中,无论是Java还是Python,编码格式均已设为“UTF-8”,因此排除了编码不…

厦门网站建设方案维护网站开发技术服务合同

[css] 如果css文件过大时,如何异步加载它? 分割成多个CSS文件进行Gzip压缩link preload个人简介 我是歌谣,欢迎和大家一起交流前后端知识。放弃很容易, 但坚持一定很酷。欢迎大家一起讨论 主目录 与歌谣一起通关前端面试题

织梦网站图片怎么修改不了cms网站下载

理论部分: 编写思路: GPIO 的地位跟其他模块,比如 I2C 、 UART 的地方是一样的,要使用某个引脚,需要先把引脚配置为 GPIO 功能,这要使用 Pinctrl 子系统,只需要在设备 树里指定就可以。在…

php模板网站企业网站经典案例

习惯性刷CSDN,发现了这么个主题,有意思。在我的字典里,“养生”这个条目已经被我删了。看过了太多的伪科学、贩卖焦虑、带货、自以为是,干脆眼不见为净。但程序员人均亚健康这句话真未必是个玩笑,所以还是凑个热闹聊上…

网站服务器速度对seo有什么影响闵行网站建设公司

很高兴在雪易的CSDN遇见你 VTK技术爱好者 QQ:870202403 前言 本文分享VTK样例GreedyTerrainDecimation,并解析接口vtkGreedyTerrainDecimation,希望对各位小伙伴有所帮助! 感谢各位小伙伴的点赞+关注,小易会继续努力分享,一起进步! 你的点赞就是我的动力(^U^)ノ…

网站备案名称的影响wordpress 删除边栏

事实上,红帽认证含金量在全球范围内都得到了广泛的认可和重视。许多企业和组织都将红帽认证作为招聘和选拔人才的重要标准之一。持有红帽认证的个人往往能够获得更好的职业机会和更高的薪资水平。此外,红帽认证还被许多政府机构、行业协会和教育机构所认…

制作网站制作网站建设的网站制作课程介绍

键盘和鼠标是与计算机交互的重要外围设备。有些人可能会争辩说,你只需要这些设备中的一个,但事实上,只使用其中一个设备的电脑可能非常困难。但是,如果你的鼠标或笔记本电脑的触控板突然停止工作,而你无法修复它或无法使用备用鼠标,该怎么办? 在这种情况下,你可以使用…

网站注册短信验证怎么做WordPress主题后门检测

优质回答 回答者:temps1991Java里try catch的简单用法:1、trycatch程序的流程是:运行到try块中,如果有异常抛出,则转到catch块去处理。然后执行catch块后面的语句扩展部分:1、trycatchfinally程序的流程是&…

网站建设的总体设计建网站哪家好行业现状

随着5G技术的快速发展,毫米波通信作为其中的一项重要技术,在高速数据传输、低延迟通信和大规模连接等方面具有显著的优势。本文将探讨5G毫米波通信中的关键技术,包括毫米波频段的选择、信号处理技术和MIMO技术等。 一、毫米波频段的选择 毫米…

域名备案企业网站内容wordpress页面表格

产品说明书常常被低估,但其实它是一个企业的名片,在阐述你的产品服务时大有作用。如果你在制作产品说明书上面花费大量的时间和精力,那么今天的文章可能会对你有所帮助。此文将会引领你了解如何制作产品说明书,以及推荐几款高效的…

厦门中小企业建网站补助手机建站哪家好

不容易系列之(3)—— LELE的RPG难题 Problem Description 人称“AC女之杀手”的超级偶像LELE最近忽然玩起了深沉,这可急坏了众多“Cole”(LELE的粉丝,即"可乐"),经过多方打探,某资深Cole终于知道了原因,原来…

服务器主机搭建网站最准确的汽车报价网

java jdk1.5提供线程池 在java.util.concurrent包下提供工厂类Executors用于生产线程池,Executors提供了4种线程池 newFixedThreadPool: 创建一个线程池,该线程池重用固定数量的从共享无界队列中运行的线程。 newScheduledThreadPool&#x…

mvc做网站用的多不多wordpress 中文插件

Hello,小索奇!很高兴为你拓展关于GPT-3、GPT-4、ChatGPT之间关系的信息,以及解释自然语言模型和Transformer的区别。 首先,GPT-3、GPT-4、ChatGPT都是建立在GPT系列技术基础上的自然语言处理模型。它们在不同的代数、性能和应用场…

圣亚科技网站案例动漫制作公司排名

😎 作者介绍:我是程序员洲洲,一个热爱写作的非著名程序员。CSDN全栈优质领域创作者、华为云博客社区云享专家、阿里云博客社区专家博主、前后端开发、人工智能研究生。公众号:洲与AI。 🎈 本文专栏:本文收录…

北京中天人建设工程有限公司网站凡科建站登录入口官方正版

天行健,君子以自强不息;地势坤,君子以厚德载物。 每个人都有惰性,但不断学习是好好生活的根本,共勉! 文章均为学习整理笔记,分享记录为主,如有错误请指正,共同学习进步。…

做网站效果图是用ps还是ai成都网站建设哪家便宜

一、本文介绍 本文给大家带来的改进机制是实现级联群体注意力机制CascadedGroupAttention,其主要思想为增强输入到注意力头的特征的多样性。与以前的自注意力不同,它为每个头提供不同的输入分割,并跨头级联输出特征。这种方法不仅减少了多头注意力中的计算冗余,而且通过增…

烟台建设企业网站.net wap网站

当开发者向普通用户分享程序时,为了方便用户在未安装Python环境的情况 下能够正常运行,需要将开发好的程序进行打包,转换成用户可运行的文件类 型。本节将介绍在Windows和Linux两种系统下,将Python类型的文件转换成可执 行文件的方…