V
主页
6.自己实现一个wordcount
发布人
1.本专辑用2天左右时间,快速搭建整个Hadoop的生态体系,搭建有以下内容: Hadoop-->ZooKeeper-->Hive-->Flume-->Kafka-->Hbase-->phoenix-->sqoop-->spark 本套视频是为了让大家快速了解整个大数据体系的各个方面. 如果需要视频中的资料,请私信我.
打开封面
下载高清视频
观看高清视频
视频下载器
11.搭建Hive环境
10.搭建HadoopHA自动故障转移
5.Java API操作HDFS
32.实现WordCount案例2
1.Hadoop概述
7.编写MapReduce程序
14.安装Idea与Maven1
15.安装Idea与Maven2
33.实现WordCount程序3
34.完善WordCount程序
2.配置第一台虚拟机
18.搭建Sqoop环境
31.实现WordCount案例1-第二次录制
30.实现WordCount案例1
12.搭建Flume环境
28.HDFS之DataNode
8.配置虚拟机网络
18.复习Hadoop
4.配置hadoop集群并进行Shell操作
26.HDFS数据流
4.Hadoop本地模式环境搭建
17.Hadoop之HDFS
2.Hadoop概述
27.HDFS之NameNode
16.Idea创建父子项目
53.Group分组2
19.搭建Spark环境并进行操作
23.JavaAPI操作HDFS2
35.Hadoop序列化
9.Hadoop完全分布模式搭建3
44.自定义InputFormat2
48.自定义Partitioner分区
52.Group分组1
5.Hadoop伪分布模式搭建
1-VM安装
54.自定义OutputFormat
36.FlowBean案例2
6.Hadoop伪分布式下的HDFS与Yarn
7.Hadoop完全分布模式搭建1
29.MapReduce入门