hadoop实践02---eclipse操作hdfs的api上传文件

Posted zhengwei_cq

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了hadoop实践02---eclipse操作hdfs的api上传文件相关的知识,希望对你有一定的参考价值。

1、eclipse中编写代码后双击main方法--->Run as ---> java application ,然后指定的文件 就会提交到hdfs中。

2、查看文件:http://192.168.108.128:50070/dfshealth.html#tab-overview

package hdfs24;


import java.net.URI;
import java.net.URISyntaxException;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;

public class hdfsClientDemo {
       public static void main(String[] args) throws Exception
       {
           Configuration conf = new Configuration();
           //复本数
           conf.set("dfs.replication", "1");
           conf.set("dfs.blocksize", "1024m");
           FileSystem fs = FileSystem.get(new URI("hdfs://192.168.108.128:9000"), conf, "root");
           fs.copyFromLocalFile(new Path("D:/postman-4.1.2.rar"), new Path("/aaa/"));
           fs.close();
       }
}

 

以上是关于hadoop实践02---eclipse操作hdfs的api上传文件的主要内容,如果未能解决你的问题,请参考以下文章

实战|HDFS监控运维最佳实践

对Hadoop分布式文件系统HDFS的操作实践

熟悉常用的HDFS操作

深入理解Hadoop HDFS,看这篇文章就够了

最通熟易懂的Hadoop HDFS实践攻略

pandas处理较大数据量级的方法 - chunk,hdf,pkl