本篇内容主要讲解“怎么从Hadoop URL读取数据”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“怎么从Hadoop URL读取数据”吧!

创新互联建站是一家集网站建设,象山企业网站建设,象山品牌网站建设,网站定制,象山网站建设报价,网络营销,网络优化,象山网站推广为一体的创新建站企业,帮助传统企业提升企业形象加强企业竞争力。可充分满足这一群体相比中小企业更为丰富、高端、多元的互联网需求。同时我们时刻保持专业、时尚、前沿,时刻以成就客户成长自我,坚持不断学习、思考、沉淀、净化自己,让我们为更多的企业打造出实用型网站。
1,编写代码
import java.io.*;
import java.net.URL;
import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
import org.apache.hadoop.io.IOUtils;
public class URLCat {
    static {
        URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
    }
    
    public static void main(String[] args) throws Exception {
        InputStream in = null;
        try {
            in = new URL(args[0]).openStream();
            IOUtils.copyBytes(in, System.out, 4096, false);
        } finally {
            IOUtils.closeStream(in);
        }
    }
}
 
2,编译Java代码
- $ Hadoopcom.sun.tools.javac.Mian -d classes URLCat.java 
- // then the class files will be generated in the directory of classes 
3,打包成jar包
- jar cf URLCat.jar classes/URLCat.class 
- // then we will get the URLCat.jar, the source is from classes/URLCat.class 
4,运行jar包
hadoop jar URLCat.jar URLCat hdfs://10.10.12.171/input/WordCount/file1
Result:
- hadoop ok 
- hadoop fail 
- hadoop 2.3 
可见hdfs://10.10.12.171/input/WordCount/file1的内容就输出到了标准输出了。
到此,相信大家对“怎么从Hadoop URL读取数据”有了更深的了解,不妨来实际操作一番吧!这里是创新互联网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!
当前名称:怎么从HadoopURL读取数据
网站地址:http://www.cqwzjz.cn/article/gshiog.html

 建站
建站
 咨询
咨询 售后
售后
 建站咨询
建站咨询 
 