![大数据采集与处理](https://wfqqreader-1252317822.image.myqcloud.com/cover/286/44819286/b_44819286.jpg)
2.3.2 单机模式
Hadoop默认模式为非分布式模式(本地模式),不需要进行其他配置即可运行。非分布式即单 Java 进程,方便进行调试,解压Hadoop后就可以直接使用。
(1)创建一个存放本地模式Hadoop的目录。
[Hadoop@bigdata-senior01 modules]$ mkdir/opt/modules/standalone
(2)解压Hadoop文件,代码如图2-11所示。
![](https://epubservercos.yuewen.com/7D2AAF/23950017709669506/epubprivate/OEBPS/Images/txt002_11.jpg?sign=1738880835-ctnJHwfDhghriv8aX2IXtztjm4S2lKNT-0-13dd88f43b8d400b16f8eb9e3902b766)
图2-11 解压Hadoop文件
(3)确保JAVA_HOME 环境变量已经配置好。
[Hadoop@bigdata-senior01 modules]$ echo ${JAVA_HOME}/opt/modules/jdk1.8.0_72
(4)运行MapReduce程序,验证。
这里运行Hadoop自带的MapReduce测试工程,在本地模式下测试wordcount案例。
(5)准备MapReduce输入文件wc.input。
[Hadoop@bigdata-senior01 modules]$ cat /opt/data/wc.inputHadoop mapreduce hivehbase spark stormsqoop Hadoop hivespark Hadoop
(6)运行Hadoop自带的mapreduce Demo工程,对应jar包:hadoop-mapreduce-examples-3.2.2.jar,输入测试案例名称:wordcount,代码如图2-12所示,结果如图2-13所示。
![](https://epubservercos.yuewen.com/7D2AAF/23950017709669506/epubprivate/OEBPS/Images/txt002_12.jpg?sign=1738880835-PEDQhHbaxE6xmVAnqHFUOCGRpT4KvnU3-0-99dfc2d36db9414e3b401f22cb6ef28b)
图2-12 运行wordcount案例命令
![](https://epubservercos.yuewen.com/7D2AAF/23950017709669506/epubprivate/OEBPS/Images/txt002_13.jpg?sign=1738880835-vd0zHRxjWwqwxrdpdSEtWzawZJQULkTv-0-719a6d2aa4346c0dcdca2546f69e9a6a)
图2-13 运行wordcount案例结果
从图2-13可以看到Job ID中有local字样,说明是运行在本地模式下的。
(7)查看输出文件,代码及结果如图2-14所示。
![](https://epubservercos.yuewen.com/7D2AAF/23950017709669506/epubprivate/OEBPS/Images/txt002_14.jpg?sign=1738880835-tan7Sy0QfPABuGIJ96gJc929zo9iKGLI-0-15d9c2302404e68481d111a403278968)
图2-14 查看输出文件
在本地模式下,MapReduce 的输出是输出到本地。输出目录中有 _SUCCESS 文件说明Job 运行成功,part-r-00000 是输出结果文件。