Hadoop + spark常用命令

Posted twodoge

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Hadoop + spark常用命令相关的知识,希望对你有一定的参考价值。

Hadoop集群常用的shell命令

Hadoop集群常用的shell命令

查看Hadoop版本

hadoop -version

启动HDFS

start-dfs.sh

启动YARN

start-yarn.sh

查看4台服务器的进程

jps

启动HDFS和YARN的web管理界面

http://你的ip:50070/
http://你的ip:8088/

在HDFS上创建一个文件夹/test/input

hadoop fs -mkdir -p /test/input

查看创建的文件夹

hadoop fs -ls /
hadoop fs -ls /test

上传到HDFS的/test/input文件夹中

hadoop fs -put ~/words.txt /test/input
查看是否上传成功
hadoop fs -ls /test/input

从HDFS钟下载文件,文件下载到~/data文件夹中

hadoop fs -get /test/input/words.txt ~/data






















以上是关于Hadoop + spark常用命令的主要内容,如果未能解决你的问题,请参考以下文章

spark、hive、impala、hdfs的常用命令

练习记录--总结Spark基础操作常用的Shell命令

hadoop-ha+zookeeper+hbase+hive+sqoop+flume+kafka+spark集群安装

我可以在本地机器上的 python 上运行 spark 命令到 hadoop 吗?

Hadoop技术之Apache Hadoop集群搭建

Hadoop技术栈之Apache Hadoop概述