在当今的大数据时代,Hadoop分布式文件系统(HDFS)作为存储海量数据的核心组件,被广泛应用于各类企业级数据平台。而RockyLinux作为一款稳定、安全且免费的企业级Linux发行版,是部署HDFS的理想操作系统。本文将为初学者提供一份详尽的RockyLinux HDFS配置教程,帮助你从零开始搭建一个单节点HDFS环境。
在开始之前,请确保你已满足以下条件:
Hadoop 基于 Java 开发,因此首先需要安装 OpenJDK:
sudo dnf install java-11-openjdk-devel -yjava -version
执行后应看到类似 openjdk version "11.0.x" 的输出,表示安装成功。
为安全起见,建议使用专用用户运行 Hadoop 服务:
sudo useradd -m hadoopsudo passwd hadoopsudo usermod -aG wheel hadoop
然后切换到 hadoop 用户:
su - hadoop
进入 hadoop 用户主目录,下载 Hadoop(以 3.3.6 版本为例):
cd ~wget https://dlcdn.apache.org/hadoop/common/hadoop-3.3.6/hadoop-3.3.6.tar.gztar -xzvf hadoop-3.3.6.tar.gzmv hadoop-3.3.6 hadoop
编辑 ~/.bashrc 文件,添加 Hadoop 和 Java 路径:
echo 'export JAVA_HOME=/usr/lib/jvm/java-11-openjdk' >> ~/.bashrcecho 'export HADOOP_HOME=$HOME/hadoop' >> ~/.bashrcecho 'export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin' >> ~/.bashrcsource ~/.bashrc
进入 Hadoop 配置目录:
cd ~/hadoop/etc/hadoop
1. 编辑 core-site.xml:
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property></configuration>
2. 编辑 hdfs-site.xml(设置副本数为1,适合单机):
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:///home/hadoop/hadoop_data/hdfs/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:///home/hadoop/hadoop_data/hdfs/datanode</value> </property></configuration>
首先创建数据目录:
mkdir -p ~/hadoop_data/hdfs/namenodemkdir -p ~/hadoop_data/hdfs/datanode
然后格式化 NameNode:
hdfs namenode -format
最后启动 HDFS 服务:
start-dfs.sh
验证是否启动成功:
jps
你应该看到 NameNode、DataNode 和 SecondaryNameNode 进程。
创建一个测试目录并上传文件:
hdfs dfs -mkdir /testhdfs dfs -put ~/.bashrc /test/hdfs dfs -ls /test
如果看到文件列表,说明 HDFS安装教程 成功完成!
通过本教程,你已在 RockyLinux 上成功配置了 Hadoop分布式文件系统(HDFS)。这套环境适用于学习、开发和小型测试场景。若需部署生产级集群,还需配置多节点、高可用(HA)、YARN资源管理等高级功能。
掌握 RockyLinux HDFS配置 是构建大数据平台的第一步,希望这篇 HDFS安装教程 能为你打下坚实基础!
本文由主机测评网于2025-12-04发表在主机测评网_免费VPS_免费云服务器_免费独立服务器,如有疑问,请联系我们。
本文链接:https://vpshk.cn/2025122704.html