失效链接处理 |
基于Hadoop的数据仓库Hive学习指南 PDF 下载
本站整理下载:
提取码:cy21
相关截图:
主要内容:
实验指导书
1.1 基于Hadoop的数据仓库Hive学习指南
1.2实验环境
1.操作系统:CentOS6.6
2.已经安装好Linux操作系统,并安装配置了Hadoop环境,已经安装好了Hadoop分布式文件系统
3.登录用户名:hadoop,密码:123456
账户:root 密码:123456
桌面的hive-site.txt存放配置文件的内容
hive-command.txt存放常用的hive命令
1.3 实验原理
1.通过实验掌握基本的Hive安装方法;
2.掌握用数据仓库Hive来解决一些常见的数据库操作以及简单的Hive编程。
1.3.1 Hive简介
Hive是Facebook开发的构建于Hadoop集群之上的数据仓库应用,可以将结构化的数据文件映射为一张数据库表,并提供完整的SQL查询功能,可以将SQL语句转换为MapReduce任务进行运行。
Hive是一个可以提供有效的、合理的且直观的组织和使用数据的模型,即使对于经验丰富的Java开发工程师来说,将这些常见的数据运算对应到底层的MapReduce Java API也是令人敬畏的。Hive可以帮用户做这些工作,用户就可以集中精力关注查询本身了。Hive可以将大多数的查询转换MapReduce任务。Hive最适合于数据仓库应用程序,使用该应用程序进行相关的静态数据分析,不需要快速响应给出结果,而且数据本身也不会频繁变化。
Hive不是一个完整的数据库。Hadoop以及HDFS的设计本身约束和局限性限制了Hive所能胜任的工作。最大的限制就是Hive不支持记录级别的更新、插入或者删除。用户可以通过查询生成新表或将查询结果导入到文件中去。因为,Hadoop是一个面向批处理的系统,而MapReduce启动任务启动过程需要消耗很长时间,所以Hive延时也比较长。Hive还不支持事务。因此,Hive不支持联机事务处理(OLTP),更接近于一个联机分析技术(OLAP)工具,但是,目前还没有满足“联机”部分。
Hive提供了一系列的工具,可以用来进行数据提取转化加载(ETL),其中,ETL是一种可以存储、查询和分析存储在Hadoop中的大规模数据的机制。因此,Hive是最适合数据仓库应用程序的,它可以维护海量数据,而且可以对数据进行挖掘,然后形成意见和报告等。
因为大多数的数据仓库应用程序是基于SQL的关系数据库现实的,所以,Hive降低了将这些应用程序移植到Hadoop上的障碍。如果用户懂得SQL,那么学习使用Hive会很容易。因为Hive定义了简单的类SQL 查询语言——HiveQL,这里值得一提的是,与SQLServer、Oracle相比,HiveQL和MySQL提供的SQL语言更接近。同样的,相对于其他的Hadoop语言和工具来说,Hive也使得开发者将基于SQL的应用程序移植到Hadoop变得更加容易。
1.3.2 Hive安装
因为Hive是构建在Hadoop之上的,所以在安装Hive前,我们需要安装Hadoop环境,这里已经安装好了Hadoop环境。下面开始安装Hive。
安装Hive的过程和安装Hadoop很类似,首先,我们先下载一个Hive软件压缩包,下载的版本可能会有所不同,但并不会影响实验结果。
(下载地址:https://mirrors.tuna.tsinghua.edu.cn/apache/hive/)
|