前言
Hadoop是一个分布式计算框架,整套部署起来并非那么简单。但是Hadoop提供单机模式的安装,适合新手尝个鲜,感性的体验一下Hadoop究竟是什么。纸上得来终觉浅,动手实践才是唯一真理。
环境说明
本文系统是ubuntu-16.04.1-server-amd64,安装在Win10自带的虚拟机管理系统Hyper-V之上。为了提高下载速度,apt-get源换成了阿里的源。由于是虚拟机,为了方便,以下所有的操作都是在root账号下操作。
安装JDK
Hadoop依赖jdk环境,所以必须先安装jdk,本文以jdk8为例:
等下载安装Hadoop后统一修改环境变量。
安装Hadoop2.6.0
下载:
解压并拷贝到usr/local
目录下:
修改环境变量
打开/root/.bashrc
:
在文件末尾添加:
保存退出,激活环境变量:
测试是否成功:
依次执行java -version
,hadoop version
。如果没有报错,则表示安装成功。
使用Hadoop
这里使用Hadoop提供的例子,计算文本的单词数量,以/var/log/dpkg.log
为例。
首先到hadoop目录下(/usr/local/hadoop
),复制dpkg.log
到input目录:
最重要的一步,执行Hadoop,并指定类文件:
可以看到,这里指定了WordCount
类来统计单词数量,指定input
为输入文件夹,output
为输出文件夹。
如果以上命令执行后没有报错,则表示计算成功,可以查看结果:
完结
至此,单机安装Hadoop成功,并且成功运行了一个mapreduce的任务。
ʅ(´◔౪◔)ʃ 沉淀一下吧~