Hadoop初步体验(安装与测试)

  • 来源:
  • 更新日期:2018-05-02

摘要:摘要: 体验的环境为: 物理主机:windows8.1;虚拟机:virtualbox4.3.20;虚拟主机:ubuntu12.04;jdk:1.7.0_75 ;hadoop版本:1.2.1

简述:Hadoop是最著名使用最广泛的分布式大数据处理框架,它是用Java开发的。

物理主机、虚拟机、虚拟主机这三个就不多说了。我们先在ubuntu里添加一个叫hadoop的用户

timg.jpg

1:安装jdk

下载jdk:jdk-7u75-linux-x64.tar.gz

安装jdk:

#切换到root用户 suroot #进入用户编译的目录 cd/usr/local/lib #将jdk压缩包解压到当前路径 tar-zxvf[jdk文件路径]/java-jdk-1.7/jdk-7u75-linux-x64.tar.gz #编辑linux配置文件 gedit/etc/profile #添加如下文字 exportJAVA_HOME=/usr/local/lib/jdk1.7.0_75 exportCLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar exportPATH=$PATH:$JAVA_HOME/bin #保存文件 #将jdk1.7.0_75目录的拥有者改为root组的root用户 chownroot:root-R/usr/local/lib/jdk1.7.0_75 #更改目录和文件的模式 chmod755-R/usr/local/lib/jdk1.7.0_75 #生效 source/etc/profile #测试jdk,这条命令检查jdk安装是否成功。运行这条命令,只要没有报错就表明安装成功了。 java-version

2:在虚拟机中安装hadoop

下载hadoop:hadoop-1.2.1.tar.gz

安装hadoop:

#切换到hadoop用户 suhadoop #进入第三方包目录 cd/opt tar-xvzf[hadoop文件路径]/hadoop-1.2.1.tar.gz #进入hadoop目录,配置几个文件 #core-site.xml <configuration> <property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> </configuration> #mapred-site.xml <configuration> <property> <name>mapred.job.tracker</name> <value>localhost:9001</value> </property> </configuration> #hdfs-site.xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> #在hadoop-env.sh文件里添加如下一条语句: exportJAVA_HOME=/usr/local/lib/jdk1.7.0_75

3:安装rsync和ssh

sudoapt-getinstallsshrsync ssh-keygen-tdsa-f~/.ssh/id_dsa cat~/.ssh/id_dsa.pub>>~/.ssh/authorized_keys sshlocalhost

4:启动hadoop

#进入hadoop目录 cd/opt/hadoop-1.2.1 #格式化hadoop_namenode ./bin/hadoopnamenode-format #启动hadoop所有节点 ./bin/start-all.sh

5:测试(词频统计)

#进入hadoop目录 cd/opt/hadoop-1.2.1 #将当前目录下的README.txt放到hadoop进行测试 ./bin/hadoopfs-putREADME.txtreadme.txt #运行hadoop的examples的wordcount,测试hadoop的执行。 ./bin/hadoopjarhadoop-examples-1.2.1.jarwordcountreadme.txtoutput #这条命令查看处理结果 ./bin/hadoopfs-catoutput/part-r-00000