Call to localhost/127.0.0.1:9000 failed on connection exception:java.net.ConnectException的解决方案

作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/

在启动hadoop时,出现了如下错误:

Call From java.net.UnknownHostException: ubuntu-larntin: ubuntu-larntin to localhost:9000 failed on connection exception: java.net.ConnectException: Connection refused;

而且启动datanode、yarn都正常,只有namenode一直挂掉

SRE实战 互联网时代守护先锋,助力企业售后服务体系运筹帷幄!一键直达领取阿里云限量特价优惠。

解决方案如下:

wrr@ubuntu:~$ hadoop namenode -format

之后,重新启动所有的集群,即可

wrr@ubuntu:~$ cd /home/wrr/java/hadoop-2.7.6/sbin
wrr@ubuntu:~/java/hadoop-2.7.6/sbin$ ./hadoop-daemon.sh start namenode
starting namenode, logging to /home/wrr/java/hadoop-2.7.6/logs/hadoop-wrr-namenode-ubuntu.out
wrr@ubuntu:~/java/hadoop-2.7.6/sbin$ jps
8307 DataNode
9317 NameNode
7431 
9352 Jps
8476 ResourceManager

之后,再次在eclipse上运行程序,就没问题了。

新建了一个java文件

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
public class HDFSFileIfExist {
    public static void main(String[] args){
        try{
            String fileName = "test";
            Configuration conf = new Configuration();
            conf.set("fs.defaultFS", "hdfs://localhost:9000");
            conf.set("fs.hdfs.impl", "org.apache.hadoop.hdfs.DistributedFileSystem");
            FileSystem fs = FileSystem.get(conf);
            if(fs.exists(new Path(fileName))){
                System.out.println("文件存在");
            }else{
                System.out.println("文件不存在");
            }
 
        }catch (Exception e){
            e.printStackTrace();
        }
    }
}

判断当前hadoop-2.7.6目录下是否存在test文件

 Call to localhost/127.0.0.1:9000 failed on connection exception:java.net.ConnectException的解决方案 Hadoop

如果想看更多关于java API的内容,可以看大数据技术原理与应用 第三章 分布式文件系统HDFS 学习指南_厦大数据库实验室博客

 

 

扫码关注我们
微信号:SRE实战
拒绝背锅 运筹帷幄