一、准备环境
# 安装hadoop sudo apt-get update sudo apt-get install -y hadoop # 修改hadoop配置文件 sudo nano /etc/hadoop/core-site.xml
在core-site.xml中添加如下内容:
fs.defaultFS hdfs://localhost:9000
保存并退出nano。
依次打开以下文件,并在每个文件中添加以下内容:
# 修改hadoop配置文件 sudo nano /etc/hadoop/hdfs-site.xml dfs.namenode.name.dir /usr/local/hadoop/hadoop_data/hdfs/namenode dfs.namenode.checkpoint.dir /usr/local/hadoop/hadoop_data/hdfs/namesecondary dfs.replication 1 # 设置hadoop环境变量 sudo nano /etc/profile.d/hadoop.sh export HADOOP_HOME=/usr/local/hadoop export HADOOP_MAPRED_HOME=$HADOOP_HOME export HADOOP_COMMON_HOME=$HADOOP_HOME export HADOOP_HDFS_HOME=$HADOOP_HOME export YARN_HOME=$HADOOP_HOME export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
二、格式化namenode
执行以下命令格式化namenode:
hadoop namenode -format
三、启动hadoop集群
启动hadoop集群:
# 启动hadoop start-all.sh # 查看hadoop运行状态 jps
四、验证
验证namenode是否已经格式化成功:
hadoop fs -ls /
如果看到以下输出,则表示已经成功格式化namenode:
Found 1 items drwxr-xr-x - hadoop supergroup 0 2018-06-15 12:09 /user
五、注意事项
每次启动hadoop集群前都需要执行格式化namenode的操作。
在实际生产环境中,需要根据具体需求对hadoop配置文件进行进一步修改。
原创文章,作者:UDUA,如若转载,请注明出处:https://www.506064.com/n/132816.html