一、準備環境
# 安裝hadoop sudo apt-get update sudo apt-get install -y hadoop # 修改hadoop配置文件 sudo nano /etc/hadoop/core-site.xml
在core-site.xml中添加如下內容:
fs.defaultFS
hdfs://localhost:9000
保存並退出nano。
依次打開以下文件,並在每個文件中添加以下內容:
# 修改hadoop配置文件
sudo nano /etc/hadoop/hdfs-site.xml
dfs.namenode.name.dir
/usr/local/hadoop/hadoop_data/hdfs/namenode
dfs.namenode.checkpoint.dir
/usr/local/hadoop/hadoop_data/hdfs/namesecondary
dfs.replication
1
# 設置hadoop環境變數
sudo nano /etc/profile.d/hadoop.sh
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
二、格式化namenode
執行以下命令格式化namenode:
hadoop namenode -format
三、啟動hadoop集群
啟動hadoop集群:
# 啟動hadoop start-all.sh # 查看hadoop運行狀態 jps
四、驗證
驗證namenode是否已經格式化成功:
hadoop fs -ls /
如果看到以下輸出,則表示已經成功格式化namenode:
Found 1 items drwxr-xr-x - hadoop supergroup 0 2018-06-15 12:09 /user
五、注意事項
每次啟動hadoop集群前都需要執行格式化namenode的操作。
在實際生產環境中,需要根據具體需求對hadoop配置文件進行進一步修改。
原創文章,作者:UDUA,如若轉載,請註明出處:https://www.506064.com/zh-tw/n/132816.html
微信掃一掃
支付寶掃一掃