学校网站建设策划书模板wordpress去掉边栏
web/
2025/10/1 2:50:52/
文章来源:
学校网站建设策划书模板,wordpress去掉边栏,传媒公司 网站开发,跨境电商平台有哪些及其特点在实际工作中会遇到#xff0c;最近有需求将产品炸开bom到底层#xff0c;但是ERP中bom数据在一张表中递归存储的#xff0c;不循环展开#xff0c;是无法知道最底层原材料是什么。 在ERP中使用pl/sql甚至sql是可以进行炸BOM的#xff0c;但是怎么使用spark展开#xff0…在实际工作中会遇到最近有需求将产品炸开bom到底层但是ERP中bom数据在一张表中递归存储的不循环展开是无法知道最底层原材料是什么。 在ERP中使用pl/sql甚至sql是可以进行炸BOM的但是怎么使用spark展开并且效率要不Oracle更高效的展开是个问题。
展开方法 有以下步骤 1. 使用spark sql中sql直接递归展开 优点可行且效率很快 缺点一个sql炸到底层无法添加在炸开过程中的逻辑管控 2. 一层层的展开BOM直到没有可以展开的物料为止 实际效果 优点可行并可以在每一层进行管快 优缺点本质上并不是递归计算而是过度有限循环的计算 与一些需求有冲突比如原需求为递归计算按照需求扣减现有量是无法实现的 3. 使用sparkscala递归炸开bom--实验中
具体步骤如下
1.使用spark sql展开bom
在Scala中我们可以使用Spark SQL来执行递归查询。要使用Spark SQL进行递归查询我们首先需要创建一个递归查询视图然后在该视图中执行我们的查询操作。接下来我们将介绍一个具体的示例来解释如何使用Spark SQL进行递归查询。
假设我们有一个部门表其中包含部门的ID和上级部门的ID。我们想要查询一个部门的所有上级部门直到根部门的层级关系。以下是一个简化的部门表结构和数据
CREATE TABLE department (department_id INT,parent_department_id INT
);INSERT INTO department VALUES (1, NULL);
INSERT INTO department VALUES (2, 1);
INSERT INTO department VALUES (3, 2);
INSERT INTO department VALUES (4, 3);
INSERT INTO department VALUES (5, 3);
INSERT INTO department VALUES (6, NULL);
INSERT INTO department VALUES (7, 6);我们可以使用Spark SQL来执行递归查询查询部门ID为4的部门的所有上级部门
import org.apache.spark.sql.SparkSessionval spark SparkSession.builder().appName(Recursive Query).master(local).getOrCreate()val departmentDF spark.read.format(jdbc).option(url, jdbc:mysql://localhost:3306/test).option(dbtable, department).option(user, root).option(password, password).load()departmentDF.createOrReplaceTempView(department)spark.sql(WITH RECURSIVE department_hierarchy AS (SELECT department_id, parent_department_idFROM departmentWHERE department_id 4UNION ALLSELECT d.department_id, d.parent_department_idFROM department_hierarchy dhJOIN department d ON dh.parent_department_id d.department_id)SELECT *FROM department_hierarchy
).show()上述示例中我们使用Spark SQL的WITH RECURSIVE语法来定义一个递归查询视图department_hierarchy。起始查询使用了WHERE子句来找到部门ID为4的部门然后使用UNION ALL子句将递归部分与起始部分联接起来直到找到根部门为止。最后我们通过SELECT语句从递归查询视图中选择所需的列。
运行以上代码我们可以得到结果如下
--------------------------------
|department_id|parent_department_id|
--------------------------------
| 4| 3|
| 3| 2|
| 2| 1|
| 1| NULL|
--------------------------------总结
本文中我们介绍了如何使用Scala中的Spark SQL来执行递归查询。我们首先了解了递归查询的概念和用法然后通过一个具体的示例演示了如何使用Spark SQL进行递归查询。通过使用Spark SQL的WITH RECURSIVE语法我们可以方便地处理复杂的递归查询操作从而更好地利用Spark处理大规模结构化数据。 参考文档如下
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/web/84799.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!