自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 资源 (12)
  • 收藏
  • 关注

原创 Liunx系统命令-----挂载

Liunx系统命令-----挂载第一步:先创建两个文件夹分别放Centos文件和local_yummkdir -p /mnt/Centos6mkdir -p /mnt/local_yum查看文件夹是否创建成功cd /mnt/ll输出结果:第二步:读取cdrom的文件到Centos6的文件夹中和local_yum作用:磁盘关闭时候,内容不会消失注解:-o覆盖 loop 循...

2020-02-09 19:07:56 197

原创 大数据之Hive知识点总结(一)

大数据之Hive知识点总结(一)1、数据仓库,英文名称:Data Warehouse,简写DW或DWH,数据仓库是构建面向分析的集成化数据环境,为企业提供决策支持,出于分析性报告和决策性支持目的而创建,数据仓库本身并不“生产”任何数据,同时自身不需要“消费”任何数据,数据来源于外部,并且开放给外部应用。2、数据仓库的主要特征:数据仓库是面向主题、集成、非易失和时变的数据集合,用以支持管理决策。...

2020-01-13 22:12:43 342

flume-interceptor-1.0-SNAPSHOT.jar

注意:flume-interceptor-1.0-SNAPSHOT.jar flume-interceptor-1.0-SNAPSHOT.jar flume-interceptor-1.0-SNAPSHOT.jar flume-interceptor-1.0-SNAPSHOT.jar flume-interceptor-1.0-SNAPSHOT.jar flume-interceptor-1.0-SNAPSHOT.jar

2020-08-16

超强MySQL课程笔记_V4.0.ctb

安装部署 备份恢复 主备复制 读写分离 HA架构 监控审计 压力测试 性能优化 自动化运维 ==数据的存储方式 1. 人工管理阶段 2. 文件系统阶段 3. 数据库系统管理阶段 ==数据库技术构成 1. 数据库系统 DBS A.数据库管理系统(DataBase Management System, DBMS): ORACLE、MySQL、DB2 B.DBA 2. SQL语言(结构化查询语言) A. DDL语句 数据库定义语言: 数据库、表、视图、索引、存储过程、函数, CREATE DROP ALTER B. DML语句 数据库操纵语言: 插入数据INSERT、删除数据DELETE、更新数据UPDATE、查询数据 SELECT C. DCL语句 数据库控制语言: 例如控制用户的访问权限GRANT、REVOKE 3. 数据访问技术 A. ODBC PHP <.php> B. JDBC JAVA <.jsp> 数据库管理系统软件:DBMS Oracle SQL Server DB2 MySQL 开源 MariaDB

2020-08-15

虚拟化--docker.ctb

Docker ----------------------------------------------------------------- Docker简介 ----------------------------------------------------------------- Docker 是一个开源的应用容器引擎,基于 Go 语言 并遵从 Apache2.0 协议开源。 Docker 可以让开发者打包他们的应用以及依赖包到一个轻量级、可移植的容器中,然后发布到任何流行的 Linux 机器上,也可以实现虚拟化。 容器是完全使用沙箱机制,相互之间不会有任何接口(类似 iPhone 的 app),更重要的是容器性能开销极低。 Docker 从 17.03 版本之后分为 CE(Community Edition: 社区版) 和 EE(Enterprise Edition: 企业版),我们用社区版就可以了。 ------------------------------------------------------------------------------------------------- Docker的应用场景 • Web 应用的自动化打包和发布。 • 自动化测试和持续集成、发布。 • 在服务型环境中部署和调整数据库或其他的后台应用。 • 从头编译或者扩展现有的 OpenShift 或 Cloud Foundry 平台来搭建自己的 PaaS 环境。 ------------------------------------------------------------------------------------------------- Docker 的优点 1、Docker 是一个用于开发,交付和运行应用程序的开放平台。Docker 使您能够将应用程序与基础架构分开,从而可以快速交付软件。借助 Docker,您可以与管理应用程序相同的方式来管理基础架构。通过利用 Docker 的方法来快速交付,测试和部署代码,您可以大大减少编写代码和在生产环境中运行代码之间的延迟。 2、响应式部署和扩展 Docker 是基于容器的平台,允许高度可移植的工作负载。Docker 容器可以在开发人员的本机上,数据中心的物理或虚拟机上,云服务上或混合环境中运行。 Docker 的可移植性和轻量级的特性,还可以使您轻松地完成动态管理的工作负担,并根据业务需求指示,实时扩展或拆除应用程序和服务- 3、在同一硬件上运行更多工作负载 Docker 轻巧快速。它为基于虚拟机管理程序的虚拟机提供了可行、经济、高效的替代方案,因此您可以利用更多的计算能力来实现业务目标。Docker 非常适合于高密度环境以及中小型部署,而您可以用更少的资源做更多的事情。 ------------------------------------------------------------------------------------------------- Docker 架构 ------------------------------------------------------------------------------------------------- Docker 包括三个基本概念: • 镜像(Image):Docker 镜像(Image),就相当于是一个 root 文件系统。比如官方镜像 ubuntu:16.04 就包含了完整的一套 Ubuntu16.04 最小系统的 root 文件系统。 • 容器(Container):镜像(Image)和容器(Container)的关系,就像是面向对象程序设计中的类和实例一样,镜像是静态的定义,容器是镜像运行时的实体。容器可以被创建、启动、停止、删除、暂停等。 • 仓库(Repository):仓库可看着一个代码控制中心,用来保存镜像。 Docker 容器通过 Docker 镜像来创建。 容器与镜像的关系类似于面向对象编程中的对象与类。

2020-08-15

JAVA--初级篇--数组的格式&数组的初始化&内存图解.ctb

小樱桃格式的Java初级篇格式,如果需要小樱桃软件的可以私聊我,不需要关注哦,私聊即可

2020-07-22

离线日志采集流程介绍.xlsx

Spark大型大数据平台(平台),其实通常来说,都会针对Hive中的数据来进行来开发。也就是Spark大数据系统,数据来源都是Hive中的某些表,这些表,可能都是经过大量的Hive ETL 以后建立起来的数据仓库的某些表,然后开发特殊的,符合业务要求的大数据平台

2020-06-22

Java基础第1阶段测试.doc

Java基础班第一阶段测试 注意: 直接将自己的答案编写在每一道试题的下面,代码要规范,最好使用不同背景加注,提交试卷的时候文件的命名格式如:“姓名.doc” 姓名: _____________ 一、单选题(每题2分) 1. 下列哪个声明是错误的?() B A. int i=10; B. float f=1.1; C. double d=34.4; D. byte b=127; 2. 下面哪个不是java中的关键字?()C A. public B. true C. main D. class 3. 下面哪个语句不会产生编译错误?()C

2020-06-10

PsQREdit 2.4.3.rar

文字、连接、通讯录都可以生成二维码,为黑白颜色,方便快捷,文件还小,很不错的软件,你值得拥有。

2020-05-06

常用的MySQL命令大全.pdf

最全的MySQL最常用的命令大全 常用的 MySQL命令大全 一、连接 MySQL 格式: mysql -h 主机地址 -u 用户名 -p 用户密码 1、例 1:连接到本机上的 MYSQL 。 首先在打开 DOS窗口,然后进入目录 mysqlbin ,再键入命令 mysql -uroot -p ,回车后提 示你输密码,如果刚安装好 MYSQL ,超级用户 root 是没有密码的,故直接回车即可进入到 MYSQL中了, MYSQL的提示符是: mysql> 。 2、例 2:连接到远程主机上的 MYSQL 。假设远程主机的 IP 为:110.110.110.110 ,用户名为 root, 密码为 abcd123。则键入以下命令: mysql -h110.110.110.110 -uroot -pabcd123 (注 :u 与 root 可以不用加空格,其它也一样) 3、退出 MYSQL命令: exit (回车

2020-02-10

小游戏之俄罗斯方块代码.zip

直接加入到项目中,执行主方法。可直接使用,简单,易懂,容易上手,简单代码一看就懂 直接加入到项目中,执行主方法。可直接使用,简单,易懂,容易上手,简单代码一看就懂 直接加入到项目中,执行主方法。可直接使用,简单,易懂,容易上手,简单代码一看就懂 直接加入到项目中,执行主方法。可直接使用,简单,易懂,容易上手,简单代码一看就懂 直接加入到项目中,执行主方法。可直接使用,简单,易懂,容易上手,简单代码一看就懂 直接加入到项目中,执行主方法。可直接使用,简单,易懂,容易上手,简单代码一看就懂

2020-01-29

HIVE从入门到精通.pdf

Hive从入门到精通,适合想学hive的小白看

2020-01-17

Mapreduce#文档.docx

初识 MapReduce 1 . MapReduce 计算模型介绍 1.1. . 理解 MapReduce 思想 MapReduce 思想在生活中处处可见。或多或少都曾接触过这种思想。 MapReduce 的思想核心是“ 分而治之”,适用于大量复杂的任务处理场景(大规模 数据处理场景)。即使是发布过论文实现分布式计算的谷歌也只是实现了这种思 想,而不是自己原创。 Map 负责“分”,即把复杂的任务分解为若干个“简单的任务”来并行处理。 可以进行拆分的前提是这些小任务可以并行计算,彼此间几乎没有依赖关系。 Reduce 负责“合”,即对 map 阶段的结果进行全局汇总。 这两个阶段合起来正是 MapReduce 思想的体现。 图:MapReduce 思想模型 还有一个比较形象的语言解释 MapReduce: 我们要数图书馆中的所有书。你数1号书架,我数2号书架。这就是“ Map”。 我们人越多,数书就更快。 现在我们到一起,把所有人的统计数加在一起。这就是“ Reduce”。 1.2. . Hadoop MapReduce 设计构思 MapReduce 是一个分布式运算程序的编程框架,核心功能是将用户编写的事 务逻辑代码和自带默认组件整合成一个完整的分布式运算程序,并发运行在 Hadoop 集群上。 既然是做计算的框架,那么表现形式就是有个输入(input),MapReduce 操 作这个输入(input),通过本身定义好的计算模型,得到一个输出(output)。 对许多开发者来说,自己完完全全实现一个并行计算程序难度太大,而 MapReduce 就是一种简化并行计算的编程模型,降低了开发并行应用的入门门槛。 Hadoop MapReduce 构思体现在如下的三个方面:  如何对付大数据处理:分而治之 对相互间不具有计算依赖关系的大数据,实现并行最自然的办法就是采取分 而治之的策略。并行计算的第一个重要问题是如何划分计算任务或者计算数据以 便对划分的子任务或数据块同时进行计算。不可分拆的计算任务或相互间有依赖 关系的数据无法进行并行计算!  构建抽象模型:Map 和 Reduce MapReduce 借鉴了函数式语言中的思想,用 Map 和 Reduce 两个函数提供了 高层的并行编程抽象模型。 Map: 对一组数据元素进行某种重复式的处理; Reduce: 对 Map 的中间结果进行某种进一步的结果整理。 MapReduce 中定义了如下的 Map 和 Reduce 两个抽象的编程接口,由用户去 编程实现: map: (k1; v1) → [(k2; v2)] reduce: (k2; [v2]) → [(k3; v3)] Map 和 Reduce 为程序员提供了一个清晰的操作接口抽象描述。通过以上两 个编程接口,大家可以看出 MapReduce 处理的数据类型是<key,value>键值对。  统一构架,隐藏系统层细节 如何提供统一的计算框架,如果没有统一封装底层细节,那么程序员则需要 考虑诸如数据存储、划分、分发、结果收集、错误恢复等诸多细节;为此, MapReduce 设计并提供了统一的计算框架,为程序员隐藏了绝大多数系统层面的处理细节。 MapReduce 最大的亮点在于通过抽象模型和计算框架把需要做什么(what need to do)与具体怎么做(how to do)分开了,为程序员提供一个抽象和高层的编 程接口和框架。程序员仅需要关心其应用层的具体计算问题,仅需编写少量的处 理应用本身计算问题的程序代码。如何具体完成这个并行计算任务所相关的诸多 系统层细节被隐藏起来,交给计算框架去处理:从分布代码的执行,到大到数千小 到单个节点集群的自动调度使用。 等。。。。。初级教程

2020-01-14

Hive用户指南(Hive_user_guide)_中文版.pdf

1. HIVE结构 Hive 是建立在 Hadoop 上的数据仓库基础构架。它提供了一系列的工具,可以用来进行数 据提取转化加载 (ETL),这是一种可以存储、 查询和分析存储在 Hadoop 中的大规模数据的 机制。 Hive 定义了简单的类 SQL 查询语言,称为 QL,它允许熟悉 SQL 的用户查询数据。 同时,这个语言也允许熟悉 MapReduce 开发者的开发自定义的 mapper 和 reducer 来处理 内建的 mapper 和 reducer 无法完成的复杂的分析工作。 1.1HIVE 架构 Hive 的结构可以分为以下几部分: 用户接口:包括 CLI, Client, WUI 元数据存储。通常是存储在关系数据库如 mysql, derby 中 6 解释器、编译器、优化器、执行器 Hadoop:用 HDFS 进行存储,利用 MapReduce 进行计算 1、 用户接口主要有三个: CLI,Client 和 WUI。其中最常用的是 CLI , Cli 启动的时候, 会同时启动一个 Hive 副本。 Client 是 Hive 的客户端,用户连接至 Hive Server 。 在启动 Client 模式的时候, 需要指出 Hive Server 所在节点,并且在该节点启动 Hive Server 。 WUI 是通过浏览器访问 Hive 。 2、 Hive 将元数据存储在数据库中,如 mysql 、 derby 。 Hive 中的元数据包括表的名字, 表的列和分区及其属性,表的属性(是否为外部表等),表的数据所在目录等。 3、 解释器、编译器、优化器完成 HQL 查询语句从词法分析、语法分析、编译、优化以及 查询计划的生成。生成的查询计划存储在 HDFS 中,并在随后有 MapReduce 调用执行。 4、 Hive 的数据存储在 HDFS 中,大部分的查询由 MapReduce 完成(包含 * 的查询,比 如 select * from tbl 不会生成 MapRedcue 任务)。 1.2Hive 和 Hadoop 关系 Hive 构建在 Hadoop 之上, HQL 中对查询语句的解释、优化、生成查询计划是由 Hive 完成的 所有的数据都是存储在 Hadoop 中 查询计划被转化为 MapReduce 任务,在 Hadoop 中执行(有些查询没有 MR 任 务,如: select * from table ) Hadoop和 Hive 都是用 UTF-8 编码的 7 1.3Hive 和普通关系数据库的异同 Hive RDBMS 查询语言 HQL SQL 数据存储 HDFS Raw Device or Local FS 索引 无 有 执行 MapReduce Excutor 执行延迟 高 低 处理数据规模 大 小 1. 查询语言。由于 SQL 被广泛的应用在数据仓库中,因此,专门针对 Hive 的特性设计 了类 SQL 的查询语言 HQL。熟悉 SQL 开发的开发者可以很方便的使用 Hive 进行开 发。 2. 数据存储位置。 Hive 是建立在 Hadoop 之上的,所有 Hive 的数据都是存储在 HDFS 中 的。而数据库则可以将数据保存在块设备或者本地文件系统中。 3. 数据格式。 Hive 中没有定义专门的数据格式,数据格式可以由用户指定,用户定义数 据格式需要指定三个属性:列分隔符(通常为空格、” t ”、” x001″)、行分隔符 (” n”)以及读取文件数据的方法( Hive 中默认有三个文件格式 TextFile , SequenceFile 以及 RCFile )。由于在加载数据的过程中,不需要从用户数据格式到 Hive 定义的数据格式的转换,因此, Hive 在加载的过程中不会对数据本身进行任何修 改,而只是将数据内容复制或者移动到相应的 HDFS 目录中。而在数据库中,不同的数 据库有不同的存储引擎,定义了自己的数据格式。所有数据都会按照一定的组织存储, 因此,数据库加载数据的过程会比较耗时。 4. 数据更新。由于 Hive 是针对数据仓库应用设计的,而数据仓库的内容是读多写少的。 因此, Hive 中不支持对数据的改写和添加,所有的数据都是在加载的时候中确定好的。 而数据库中的数据通常是需要经常进行修改的,因此可以使用 INSERT INTO ... VALUES 添加数据,使用 UPDATE ... SET 修改数据。 5. 索引。之前已经说过, Hive 在加载数据的过程中不会对数据进行任何处理,甚至不会 对数据进行扫描,因此也没有对数据中的某些 Key 建立索引。 Hive 要访问数据中满足 条件的特定值时,需要暴力扫描整个数据,因此访问延迟较高。由于 MapReduce 的引 入, Hive 可以并行访问数据,因此即使没有索引,对于大数据量的访问, Hive 仍然 可以体现出优势。数据库中,通常会针对一个或者几个列建立索引,因此对于少量的特 定条件的数据的访问,数据库可以有很高的效率,较低的延迟。由于数据的访问延迟较 高,决定了 Hive 不适合在线数据查询。 6. 执行。 Hive 中大多数查询的执行是通过 Hadoop 提供的 MapReduce 来实现的(类似 select * from tbl 的查询不需要 MapReduce)。而数据库通常有自己的执行引擎。

2020-01-14

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除