windows安装hadoop3.1.2-单机版

本文介绍了在 Windows 10 系统上安装 Hadoop 3.1.2 的详细过程。首先说明了所需的基本信息,包括 Hadoop 版本、操作系统和 JDK 版本。接着阐述安装步骤,如安装 JDK 并配置环境变量,解压 Hadoop 安装文件,修改多个配置文件,最后启动 HDFS 和 Yarn 并查看启动状态。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、基本信息

    hadoop版本:3.1.2
    操作系统:win10
    jdk版本:1.8  

二、安装过程

1、安装jdk1.8,并配置环境变量。
2、安装配置hadoop
    解压hadoop安装文件到安装目录
    配置HADOOP_HOME环境变量,并在path中加入%HADOOP_HOME%\bin;%HADOOP_HOME%\sbin;
    下载windows编译过的bin文件夹,可以到这个地址下载:
        https://github.com/cdarlint/winutils
    
    修改配置文件hadoop-env.cmd
        设置JAVA_HOME(如果路径中包含Program Files使用PROGRA~1代替)
        set JAVA_HOME=C:\PROGRA~1\java\jdk1.8

    (1)修改hdfs-site.xml
    configuration节点下加入如下配置
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property> 
        <name>dfs.permissions.enabled</name> 
        <value>false</value> 
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>/D:/develop/hadoop/data/namenode</value>
    </property>
    <property>
        <name>fs.checkpoint.dir</name>
        <value>/D:/develop/hadoop/data/snn</value>
    </property>
    <property>
        <name>fs.checkpoint.edits.dir</name>
        <value>/D:/develop/hadoop/data/snn</value>
    </property>
        <property>
        <name>dfs.datanode.data.dir</name>
        <value>/D:/develop/hadoop/data/datanode</value>
    </property>


    (2)修改core-site.xml
    configuration节点下加入如下配置
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/D:/develop/hadoop/data/tmp</value>
    </property>
    <property>
        <name>fs.trash.interval</name>
        <value>1440</value>
    </property>
    
    (3)修改yarn-site.xml
    configuration节点下加入如下配置
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
    
    (4)修改mapred-site.xml
    configuration节点下加入如下配置
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
7、启动HDFS
    格式化namenode(第一次启动前执行,只执行一次)
    hdfs namenode -format
    启动hdfs
    start-dfs.cmd
    启动yarn
    start-yarn.cmd
    查看是否启动成功    
    jps
    浏览器访问
    http://localhost:9870/
    http://localhost:8088/cluster

### Hadoop Docker 镜像对比 对于 `bde2020/hadoop-namenode:2.0.0-hadoop3.1.2-java8` 和 `apache/hadoop:3.1.2` 这两个镜像的主要区别可以从多个方面来分析: #### 1. 基础环境配置 - **bde2020/hadoop-namenode**: 此镜像是基于 Ubuntu 的操作系统,并预装了 Java 8,专门用于部署 Hadoop NameNode。该版本还集成了其他工具和服务以便于管理和监控集群操作[^1]。 - **apache/hadoop**: 官方发布的 Apache Hadoop 镜像通常会提供更精简的基础设置,默认情况下可能只包含了运行 Hadoop 所必需的核心组件而不会额外集成特定的服务或管理工具。 #### 2. 版本兼容性和稳定性 - **bde2020/hadoop-namenode**: 使用的是稳定版的 Hadoop 3.1.2 及其配套软件栈,在企业级应用中有较好的表现记录。由于它专注于作为NameNode角色工作,因此在这个场景下的优化程度较高。 - **apache/hadoop**: 同样采用 Hadoop 3.1.2 版本,但是作为一个通用型镜像,适用于多种类型的节点(DataNodes, ResourceManager等),所以在某些定制化需求面前灵活性更大一些。 #### 3. 社区支持与更新频率 - **bde2020/hadoop-namenode**: 维护者定期发布新版本并修复已知问题,社区活跃度相对较好,能够及时响应用户的反馈和建议。 - **apache/hadoop**: 来自官方团队维护,拥有广泛的开发者群体参与贡献代码改进以及文档编写等工作,长期来看具有更高的可靠性和安全性保障。 ```bash # 查看本地已有镜像列表 docker images | grep hadoop ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值