沈阳网站设计公司设计工作室网站
news/
2025/9/22 17:03:27/
文章来源:
沈阳网站设计公司,设计工作室网站,网站 建设开发合作协议,包装设计招聘进入安装sparkclient的节点
hdfs准备一个文件
su - hdfs
vi text.txt
随便写几行东西 #创建目录
hdfs dfs -mkdir /user/hdfs/test
#上传文件
hdfs dfs -put test.txt /user/hdfs/test/
#检查文件是否在
hdfs dfs -ls /user/hdfs/test/
#检查内容是否对
hdfs dfs -c…进入安装sparkclient的节点
hdfs准备一个文件
su - hdfs
vi text.txt
随便写几行东西 #创建目录
hdfs dfs -mkdir /user/hdfs/test
#上传文件
hdfs dfs -put test.txt /user/hdfs/test/
#检查文件是否在
hdfs dfs -ls /user/hdfs/test/
#检查内容是否对
hdfs dfs -cat /user/hdfs/test/test.txt spark在yarn上运行参见官方文档
http://spark.apache.org/docs/latest/running-on-yarn.html
进入spark-shell
spark-shell --master yarn --deploy-mode client
统计下
scala sc.textFile(/user/hdfs/test/test.txt).count()
res0: Long 7 scala sc.stop()
再次刷新Spark History Server页面即可
http://192.168.128.55:18081/?showIncompletefalse spark-submit提交任务到yarn
spark-submit --class org.whq.sparkTest.MLTest1 \
--master yarn \
--deploy-mode cluster \
--driver-memory 4g \
--executor-memory 2g \
--executor-cores 1 \
--queue default \
spark244test_2.11-0.1.jar \
10 --deploy-mode cluster集群模式多个application每个application启动一个Driver在集群的多台workerNodeManager上启动。
--deploy-mode client客户端模式多个application每个application启动一个Driver只在本机运行与集群产生大量通讯。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/909736.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!