hadoop-1.0.1在Linux环境下的安装
Linux  /  houtizong 发布于 3年前   102
hadoop-1.0.1在Linux环境下的安装
1、下载hadoop-1.0.1并将其上传至Linux服务器
下载链接如下:http://archive.apache.org/dist/hadoop/core/hadoop-1.0.1/hadoop-1.0.1.tar.gz
此处设定上传目录为/var/ftp/pub,并使用命令tar -xzvf hadoop-1.0.1.tar.gz进行解压,将解压文件移动到home目录下
2、hadoop配置
进入解压目录的conf里面:
设定JDK的安装位置:
修改hadoop-env.sh,在其中加入如下语句:
export JAVA_HOME=/usr/lib/jvm/jdk安装位置
设定Hadoop的核心文件core-site.xml,即配置HDFS的地址与端口号:
<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><configuration> <property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property></configuration>
由于此处的Hadoop是单机版,我们将默认的备份方式修改成1,即修改hdfs-site.xml如下:
<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration> <property> <name>dfs.replication</name> <value>1</value> </property></configuration>
我们继续配置MapReduce,修改mapred-site.xml如下:
<?xml version="1.0"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!-- Put site-specific property overrides in this file. --><configuration> <property> <name>mapred.job.tracker</name> <value>localhost:9001</value> </property></configuration>
配置完成,在启动Hadoop之前 ,我们格式化Hadoop的文件系统HDFS。进入Hadoop的安装目录,输入命令:
bin/hadoop namenode -format
格式化完成后,我们来启动Hadoop。
输入命令,启动所有进程:
bin/start-all.sh
最后我们来验证Hadoop是否安装完成:
打开浏览器,输入网址:
http://localhost:50030(如果是Linux上的浏览器)http://Linux服务器IP地址:50030(如果是在Windows上安装的虚拟机,而打开的是Windows的浏览器)这里打开的是MapReduce的Web页面(方法同上)http://localhost:50070http://Linux服务器IP地址:50070这里打开的是HDFS的Web页面
如果此处能够打开,则说明安装成功。
请勿发布不友善或者负能量的内容。与人为善,比聪明更重要!
技术博客集 - 网站简介:
前后端技术:
后端基于Hyperf2.1框架开发,前端使用Bootstrap可视化布局系统生成
网站主要作用:
1.编程技术分享及讨论交流,内置聊天系统;
2.测试交流框架问题,比如:Hyperf、Laravel、TP、beego;
3.本站数据是基于大数据采集等爬虫技术为基础助力分享知识,如有侵权请发邮件到站长邮箱,站长会尽快处理;
4.站长邮箱:[email protected];
文章归档
文章标签
友情链接