- Hadoop 介绍与安装
- MapReduce 原理
- Hive 介绍
- HBase 介绍
- Flume 介绍
- HDFS 原理
- Pig 介绍
- Mahout 介绍
- Sqoop 介绍
- Chukwa 介绍
课程涵盖了领域常见的组件,如 Hadoop、Mapreduce、HBase、Mahout、Pig、Hive、Sqoop 等。我们将从理论出发,搭建环境并学习相应实践案例。
知识点: 1.Hadoop生态系统 2.Hadoop环境搭建
知识点: 1.HDFS原理 2.HDFS读写操作 3.HDFS常用命令
知识点: 1.MapReduce简介 2.MapReduce流程分析 3.MapReduce工作机制剖析
知识点: 1.MapReduce操作
知识点: 1.Pig查询语言 2.搭建Pig环境
知识点: 1.Hive介绍 2.Hive环境搭建 3.Hive常见问题解决
知识点: 1.Mahout介绍 2.Mahout环境搭建 3.Mahout问题解决
知识点: 1.HBase介绍 2.HBase数据模型 3.HBase系统架构 4.HBase存储格式 5.HBase安装
知识点: 1.Sqoop介绍 2.Sqoop安装与部署 3.使用Sqoop进行数据迁移
知识点: 1.Flume架构 2.Flume管理方式 3.Flume安装与部署
知识点: 1.Chukwa架构 2.Chukwa组件说明 3.Chukwa安装与部署
知识点: 1.搭建Hadoop环境 2.编译Hadoop源代码 3.常见问题解决
知识点: 1.Hadoop2X部署
免费
两节没有过渡,而且还都烂尾了,什么鬼,hvie-site.xml也没有
和上一章没衔接好,有重复
没有说明每个配置的作用,另外环境里已经配置好了也说明
奥利給
ffff
啥也没收货光看你要钱了
很棒
不会
启动hadoop失败,报错如下: log4j:ERROR Could not connect to remote log4j server at [localhost]. We will try again later. hadoop:ssh:Could not resolve hostname hadoop:Name or service not know
按要求做了三件事: 1、创建tmp目录 2、赋予hdfs/data目录 755权限 3、格式化namenode
好
装 Apache Hadoop 3.3.1 还好,安装 MySQL v8.0.12 和 Apache Hive 3.1.2 ,配置 Hive Metastore 和 HiveServer2 以支持 Beeline 连接才是最烦的。从 19:00 一直搞到 24:00 才最终装好……
Hadoop 主程序编译时间过长(16分钟),需要用户有较大的耐心。同时,Hadoop 主程序已经更新到 v3 版本,可以直接进行安装。
Chukwa 部署过程过于复杂,需要修改大量的配置文件,极大程度地打击了用户的学习兴趣。
课程最后一个步骤需要用户同时开启多个终端,而环境既没有提供多路复用器,也没有提供图形界面允许在终端模拟器中进行多开,甚至由于 CentOS 6 停止技术支持造成用户无法自行安装上述应用。给用户学习过程带来不便。
教程描述内容比较详细,跟着做很流畅。不过教程排版设置可能没有调好,所有课程挤在一起,不是很方便阅读。