怎么做资源类网站网站建设外文版政策文件

news/2025/9/23 3:44:46/文章来源:
怎么做资源类网站,网站建设外文版政策文件,网上商城网站建设设计方案,最好要使用中文目录【Spark-HDFS小文件合并】使用 Spark 实现 HDFS 小文件合并 1#xff09;导入依赖2#xff09;代码实现2.1.HDFSUtils2.2.MergeFilesApplication 需求描述#xff1a; 1、使用 Spark 做小文件合并压缩处理。 2、实际生产中相关配置、日志、明细可以记录在 Mysql 中。 3、… 【Spark-HDFS小文件合并】使用 Spark 实现 HDFS 小文件合并 1导入依赖2代码实现2.1.HDFSUtils2.2.MergeFilesApplication 需求描述 1、使用 Spark 做小文件合并压缩处理。 2、实际生产中相关配置、日志、明细可以记录在 Mysql 中。 3、core-site.xml、hdfs-site.xml、hive-site.xml、yarn-site.xmlx 等文件放在项目的 resources 目录下进行认证。 4、下面的案例抽取出了主体部分的代码具体实现时需要结合 HDFS 工具类利用好 Mysql 做好配置、日志、以及相关明细结合各自业务进行文件合并。 1导入依赖 ?xml version1.0 encodingUTF-8? project xmlnshttp://maven.apache.org/POM/4.0.0xmlns:xsihttp://www.w3.org/2001/XMLSchema-instancexsi:schemaLocationhttp://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsdmodelVersion4.0.0/modelVersiongroupIdtest.cn.suitcase/groupIdartifactIdmergefiles/artifactIdversion4.0.0/versionpropertiesproject.build.sourceEncodingUTF-8/project.build.sourceEncodingproject.reporting.outputEncodingUTF-8/project.reporting.outputEncodingjava.version1.8/java.versionmaven.compiler.source1.8/maven.compiler.sourcemaven.compiler.target1.8/maven.compiler.targetencodingUTF-8/encoding !-- spark.version3.0.2/spark.version--spark.version2.4.8/spark.versionscala.version2.11.12/scala.version/propertiesdependenciesdependencygroupIdorg.apache.logging.log4j/groupIdartifactIdlog4j-core/artifactIdversion2.20.0/version/dependencydependencygroupIdorg.apache.hadoop/groupIdartifactIdhadoop-common/artifactIdversion3.3.2/version/dependency!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-client --dependencygroupIdorg.apache.hadoop/groupIdartifactIdhadoop-client/artifactIdversion3.3.2/version/dependency!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-hdfs --dependencygroupIdorg.apache.hadoop/groupIdartifactIdhadoop-hdfs/artifactIdversion3.3.2/version/dependencydependencygroupIdorg.apache.logging.log4j/groupIdartifactIdlog4j-api/artifactIdversion2.20.0/version/dependencydependencygroupIdorg.scala-lang/groupIdartifactIdscala-library/artifactIdversion${scala.version}/version/dependencydependencygroupIdorg.scala-lang/groupIdartifactIdscala-compiler/artifactIdversion${scala.version}/version/dependencydependencygroupIdorg.scala-lang/groupIdartifactIdscala-reflect/artifactIdversion${scala.version}/version/dependencydependencygroupIdorg.apache.spark/groupIdartifactIdspark-core_2.11/artifactIdversion${spark.version}/versionscopeprovided/scope/dependencydependencygroupIdorg.apache.spark/groupIdartifactIdspark-launcher_2.11/artifactIdversion${spark.version}/versionscopeprovided/scope/dependencydependencygroupIdorg.apache.spark/groupIdartifactIdspark-sql_2.11/artifactIdversion${spark.version}/versionscopeprovided/scope/dependencydependencygroupIdorg.apache.spark/groupIdartifactIdspark-hive_2.11/artifactIdversion${spark.version}/versionscopeprovided/scope/dependencydependencygroupIdcom.alibaba/groupIdartifactIdfastjson/artifactIdversion2.0.32/version/dependencydependencygroupIdmysql/groupIdartifactIdmysql-connector-java/artifactIdversion8.0.33/version/dependencydependencygroupIdcom.fasterxml.jackson.core/groupIdartifactIdjackson-core/artifactIdversion2.14.2/version/dependency/dependenciesbuildplugins!-- Java Compiler --plugingroupIdorg.apache.maven.plugins/groupIdartifactIdmaven-compiler-plugin/artifactIdversion3.1/versionconfigurationsource${java.version}/sourcetarget${java.version}/target/configuration/plugin!-- We use the maven-shade plugin to create a fat jar that contains all necessary dependencies. --!-- Change the value of mainClass.../mainClass if your program entry point changes. --plugingroupIdorg.apache.maven.plugins/groupIdartifactIdmaven-shade-plugin/artifactIdversion3.0.0/versionexecutions!-- Run shade goal on package phase --executionphasepackage/phasegoalsgoalshade/goal/goalsconfigurationartifactSetexcludesexcludeorg.apache.flink:force-shading/excludeexcludecom.google.code.findbugs:jsr305/excludeexcludeorg.slf4j:*/excludeexcludeorg.apache.logging.log4j:*/exclude/excludes/artifactSetfiltersfilter!-- Do not copy the signatures in the META-INF folder.Otherwise, this might cause SecurityExceptions when using the JAR. --artifact*:*/artifactexcludesexcludeMETA-INF/*.SF/excludeexcludeMETA-INF/*.DSA/excludeexcludeMETA-INF/*.RSA/exclude/excludes/filter/filters/configuration/execution/executions/pluginplugingroupIdorg.apache.maven.plugins/groupIdartifactIdmaven-surefire-plugin/artifactIdversion2.22.1/versionconfigurationgroupsIntegrationTest/groups/configuration/pluginplugingroupIdorg.apache.maven.plugins/groupIdartifactIdmaven-compiler-plugin/artifactIdversion3.1/versionconfigurationsource${java.version}/sourcetarget${java.version}/target/configuration/pluginplugingroupIdorg.apache.maven.plugins/groupIdartifactIdmaven-surefire-plugin/artifactIdversion2.22.1/version/plugin/plugins/build/project2代码实现 2.1.HDFSUtils public class HDFSUtils {private static Logger logger LoggerFactory.getLogger(HDFSUtils.class);private static final Configuration hdfsConfig new Configuration();private static FileSystem fs;public static void init() {System.out.println(Thread.currentThread().getContextClassLoader());try {hdfsConfig.addResource(Thread.currentThread().getContextClassLoader().getResource(./core-site.xml));hdfsConfig.addResource(Thread.currentThread().getContextClassLoader().getResource(./hdfs-site.xml));fs FileSystem.get(hdfsConfig);} catch (FileNotFoundException fnfe) {fnfe.printStackTrace();logger.error(Load properties failed.);} catch (IOException ioe) {ioe.printStackTrace();logger.error(String.format(IOException: ioe.getMessage()));}}public static long getDirectorySize(String directoryPath) {final Path path new Path(directoryPath);long size 0;try {size fs.getContentSummary(path).getLength();} catch (IOException ex) {}return size;}public static long getFileCount(String directoryPath) {final Path path new Path(directoryPath);long count 0;try {count fs.getContentSummary(path).getFileCount();} catch (IOException ex) {}return count;}public static long getBlockSize() {return fs.getDefaultBlockSize(fs.getHomeDirectory());}public static String getFile(String filePath) {final Path path new Path(filePath);FSDataInputStream dis null;String fileName null;try {if (fs.exists(path) fs.isFile(path)) {dis fs.open(path);StringWriter stringWriter new StringWriter();IOUtils.copy(dis, stringWriter, UTF-8);fileName stringWriter.toString();return fileName;} else {throw new FileNotFoundException();}} catch (IOException ioException) {logger.error(Get file from hdfs failed: ioException.getMessage());} finally {if (dis ! null) {try {dis.close();} catch (IOException ex) {logger.error(close FSDataInputStream failed: ex.getMessage());}}}return fileName;}public static Boolean exists(String filePath) {Path path new Path(filePath);Boolean ifExists false;try {ifExists fs.exists(path);return ifExists;} catch (IOException ex) {logger.error(String.format(hdfs file %s not exists, filePath));}return ifExists;}public static boolean renameDir(String existingName, String newName) {final Path existingPath new Path(existingName);final Path finalName new Path(newName);try {if (exists(newName)) {logger.error(String.format(Path %s already exists when try to rename %s to %s., newName, existingName, newName));return false;}return fs.rename(existingPath, finalName);} catch (IOException ex) {logger.error(Rename hdfs directory failed: ex.getMessage());}return false;}public static boolean removeDirSkipTrash(String dir) {Path path new Path(dir);boolean rv false;try {if (exists(dir)) {if (fs.delete(path, true)) {logger.info(String.format(文件夹 %s 删除成功., path));rv true;}} else {logger.error(String.format(要删除的文件夹 %s 不存在, dir));return false;}} catch (IOException ex) {logger.error(文件夹 %s 存在但是删除失败);}return rv;}public static ListString listDirs(String baseDir) {Path path new Path(baseDir);ListString dirs new ArrayList();try {FileStatus[] fileStatuses fs.globStatus(path);for (int i 0; i fileStatuses.length; i) {dirs.add(fileStatuses[i].getPath().toUri().getRawPath());}}} catch (Exception ex) {logger.error(String.format(List directories under %s failed., baseDir));}return dirs;}public static void close() {try {fs.close();} catch (IOException ex) {logger.error(hdfs file system close failed: ex.getMessage());}}}2.2.MergeFilesApplication 下面的案例抽取出了主体部分的代码具体实现时需要结合 HDFS 工具类利用好 Mysql 做好配置、日志、以及相关明细结合各自业务进行文件合并。 public class MergeFilesApplication {public static void main(String[] args) {System.out.println(Arrays.asList(args));//指定hadoop用户System.setProperty(HADOOP_USER_NAME, hdfs);System.setProperty(user.name, hdfs);//获取 SparkSession 对象SparkSession sparkSession SparkSession.builder().config(spark.scheduler.mode, FAIR)//配置调度模式.config(spark.sql.warehouse.dir, /warehouse/tablespace/external/hive)//配置warehouse目录.appName(MergeFilesApplication).getOrCreate();//合并文件sparkSession.read()//spark读取.parquet(sourceDir)//读取数据源目录.coalesce(partitions)//配置spark分区数.sortWithinPartitions(col1, col2)//每个分区内按照指定需要的列进行排序.write()//spark写入.mode(SaveMode.Append)//写入模式为追加.option(compression, gzip)//压缩方式以为gzip.parquet(targetMergedDir);//写入目标目录} }

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/911268.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

专业找工作网站下载网站统计如何做

来源:ScienceAI编辑 :萝卜皮密歇根大学安娜堡分校新兴技术治理专家 Shbita Parthasarathy 表示,从大量文本中生成流利语言的机器学习算法可能会改变科学研究的方式,但不一定会变得更好。在2022 年 4 月 27 日发布的一份报告中&…

组成原理毕业设计代做网站推荐郑州网页制作

文章目录 环境总结测试使用EXPOSE测试1:不做端口映射测试2:-p 8080:80测试3:-P测试4:--networkhost 不使用EXPOSE 参考 环境 RHEL 9.3Docker Community 24.0.7 总结 如果懒得看测试的详细信息,可以直接看结果&#…

目前好的推销网站水务 网站建设

#交换设备 配置OSPF认证-基于华为路由器 OSPF(开放最短路径优先)是一种内部网关协议(IGP),用于在单一自治系统(AS)内决策路由。OSPF认证功能是路由器中的一项安全措施,它的主要用途…

网站开发过程文档网站店铺vr场景可以做吗

背景 由于对应用上线后流量越来越大,原来的按年自动分区性能跟不上,因此决定改成按月自动分区,同时将原有分区数据重新迁移到新的分区 步骤 修改表分区为一个月一个分区 alter table my_table set INTERVAL (NUMTOYMINTERVAL(1, month));…

网站域名与网站首页网址行业网站建站

在日常的数据存储与交换中,移动硬盘因其便携性和大容量而备受青睐。然而,有时我们可能会遇到一种令人困扰的现象:当试图打开移动硬盘时,系统会弹出一个警告窗口,提示“磁盘未被格式化,是否现在格式化&#…

软件下载网站模板自做头像的网站

654 最大二叉树 题目链接:最大二叉树 思路 这道题目是让我们构造最大二叉树并返回根节点。谈及二叉树,首先要确定遍历方式,这道题目一个符合思维的遍历方式是前序遍历(中左右),先有中间节点,然后递归构造左节点和右…

定制做网站费用百度题库

js 制动控制 代码 是 :setInterval(function(){$(".egg").click();},1000); 使用方法:调出浏览器放控制台(console),一般是按F12,将上述代码粘贴后回车就可以自动运行了。转载于:https://www.cnblogs.com/Look_Sun/p/3798903.htm…

建立手机也可浏览的网站教程宁波公司建设网站

一、压力测试介绍 网站压力测试是一种评估网站性能、可靠性和稳定性的方法。它通过模拟大量用户同时访问网站,来测试网站的响应时间、吞吐量、资源利用率等指标,从而发现网站的潜在问题和瓶颈。下面我将从几个方面详细介绍网站压力测试: 1、压力测试的目的 评估网站在高并发…

闸北区网站建设网页制win7 iis 网站

一、需求场景 在前端开发过程中,经常会需要重新请求后台进行代码调试,之前的常规方法是刷新浏览器页面或者点击页面进行交互,这样对多个请求的场景就很方便,但是往往很多时候我们只是单纯的想重新发起一个请求(多个请求…

网站建设技术经理岗位职责做企业网的公司

更多资料获取 📚 个人网站:涛哥聊Python 字典是一种强大而多才多艺的数据类型,它以键-值对的形式储存信息,让我们能够以惊人的效率处理和管理数据。 字典能够将键和值关联在一起,使得数据的存储和检索变得非常高效。…

制作网站管理系统没有网站怎么做链接视频播放器

题意: 给你一个长度为 nnn 的 010101串 ,你有两种操作: 1.将一个子串翻转,花费 XXX 2.将一个子串中的0变成1,1变成0,花费 YYY 求你将这个01串变成全是1的串的最少花费。 首先,我们可以将串按照0…

啊哈哈20250923_03:23

不想发朋友圈,不想发WB,不想发抖YIN,写写博客吧。 今天是秋分呢 有个大台风,桦加沙要来了,估计24号才到我这边。 秋天啦,又 2025啦,明年又是本命年啦 时间过得好快。 不知道这个blog有没有APP,手机下一个,天天…

手机网站开发是什么个人网站域名备案流程

一种利用计算机生成随机数的方法(2012-07-16 23:22:33)标签:随机数函数数值计数器程序运行杂谈这里介绍一种利用计算机生成随机数的方法,微机都有系统计数器记录自运行开始以来的脉冲数,这是个规律变化的数字,只用它是不能产生随机…

北京网站建设一条龙wordpress的文章多重筛选

CAP理论 CAP理论,对分布式系统的特性做了高度抽象,比如抽象成了一致性、可用性和分区容错性,并对特性间的冲突(也就是CAP不可能三角)做了总结。 CAP三指标 CAP理论对分布式系统的特性做了高度抽象,形成了…

asp网站添加背景音乐甘肃建投土木工程建设有限公司网站

【1】关注本公众号,转发当前文章到微信朋友圈 【2】私信发送 【2024年人工智能指数报告】 【3】获取本方案PDF下载链接,直接下载即可。 如需下载本方案PPT原格式,请加入微信扫描以下方案驿站知识星球,获取上万份PPT解决方案&…

成都比较好的广告设计制作公司长春seo培训

目录 场景: 环境: 慢SQL查询一: 问题一:办件列表查询慢 分析: 解决方法: 问题二:系统性卡顿 分析: 解决方法: 慢SQL查询二 扩展: 场景: 线…

网站建设中数据库长沙建网站需要多少钱

背景 在命令行中从git仓库检出项目,如何在该命令行下快速用idea 打开当前项目,类似vscode 可以通过在项目根目录下执行 code . 快速打开当前项目。 步骤 以macos 为例 vim /usr/local/bin/idea 输入如下内容 #!/bin/sh open -na "IntelliJ IDE…

建网站怎么备案全国家装官网

QT中的比如QWidget,QLabel,QPushbutton,QCheckBox都可以设置阴影效果,就像这样: 以QWidget为例,开始尝试使用样式表的形式添加阴影,但没有效果,写法如下: QWidget#widget1::shadow{color: rgb…

农产品电子商务网站建设做网站的开发工具

Promise.all返回结果是返回的第一个失败的Promise,如果所有都成功那么then函数中就会拿到一个数组,如果失败那么就会返回一个失败的Promise Promise.race,谁最快我就抛出谁的Promise,不论成功失败。,Promise.race只返回失败跑的快的结果 <script>let p1 Promise.resolv…

企业官网建站电商网站建设注意

在做ICT集成项目时&#xff0c;遇到需要对现网接口进行拨测的需求。搜索后尝试使用开源的Uptime Kuma组件完成现网接口拨测。 但该项目有个问题就是默认不支持配置固定前缀&#xff0c;这对现网进行请求转发会造成较大的影响。通过查看该项目的github后找到了问题的解决方案。S…