访问hdfs里的文件
Posted 413xiaol
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了访问hdfs里的文件相关的知识,希望对你有一定的参考价值。
准备工作:
给hdfs里上传一份用于测试的文件
[[email protected] ~]# cat hello.txt
hello 1
hello 2
hello 3
hello 4
[[email protected] ~]# hadoop fs -put ./hello.txt /
[[email protected] ~]# hadoop fs -ls /
Found 1 items
-rw-r--r-- 2 root supergroup 32 2018-11-12 22:42 /hello.txt
java依赖的库:
1.common
hadoop-2.7.3sharehadoopcommonhadoop-common-2.7.3.jar
2.common依赖的jar
hadoop-2.7.3sharehadoopcommonlib下的所有
3.hdf
hadoop-2.7.3sharehadoophdfshadoop-hdfs-2.7.3.jar
代码:
利用JDK的URL类
import org.apache.hadoop.io.IOUtils; import org.apache.hadoop.fs.FsUrlStreamHandlerFactory; import java.io.InputStream; import java.net.URL; public class TestHDFS { public static void main(String[] args) throws Exception{ // URL url = new URL("http://www.baidu.com"); //URL这个类是Java的,他默认只认识HTTP协议,这里需要设置一下,让他认识HDFS协议 URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory()); //这里的地址和端口,相当与hdfs里的根目录, 然后在拼上要访问的文件在hdfs里的路径 URL url = new URL("hdfs://192.168.0.104:9000/hello.txt"); InputStream in = url.openStream(); IOUtils.copyBytes(in, System.out, 4096, true); } }
以上是关于访问hdfs里的文件的主要内容,如果未能解决你的问题,请参考以下文章
无法通过map reduce java程序访问Hadoop hdfs文件系统
在Tomcat的安装目录下conf目录下的server.xml文件中增加一个xml代码片段,该代码片段中每个属性的含义与用途