自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(254)
  • 资源 (22)
  • 收藏
  • 关注

Hadoop RPC 源码分析

2016-02-26 20:29:10 74

Hadoop RPC 源码分析

2016-02-26 20:29:10 80

原创 第三章:小朱笔记hadoop之conf分析:Reconfigurable相关

2015-02-02 23:12:48 103

原创 第三章:小朱笔记hadoop之conf分析:Reconfigurable相关

2015-02-02 23:12:48 129

原创 线上JVM 优化调试(1)

a虚拟机中,数据类型可以分为两类:基本类型和引用类型。基本类型的变量保存原始值,即:他代表的值就是数值本身;而引用类型的变量保存引用值。“引用值”代表了某个对象的引用,而不是对象本身,对象本身存放在这个引用值所表示的地址的位置。 基本类型包括:byte、short、int、long、char、float、double、Boolean、returnAddress 引用类型包括:类类型、接口类型、数组   2 堆和栈 堆和栈是程序运行的关键,很有必要把他们的关系说清楚。

2015-01-22 17:19:00 126

原创 线上JVM 优化调试(1)

a虚拟机中,数据类型可以分为两类:基本类型和引用类型。基本类型的变量保存原始值,即:他代表的值就是数值本身;而引用类型的变量保存引用值。“引用值”代表了某个对象的引用,而不是对象本身,对象本身存放在这个引用值所表示的地址的位置。 基本类型包括:byte、short、int、long、char、float、double、Boolean、returnAddress 引用类型包括:类类型、接口类型、数组   2 堆和栈 堆和栈是程序运行的关键,很有必要把他们的关系说清楚。

2015-01-22 17:19:00 90

原创 kafka源码分析(1)KafkaServer

2015-01-22 17:17:58 146

原创 kafka源码分析(1)KafkaServer

2015-01-22 17:17:58 82

第七章:小朱笔记hadoop之源码分析-hdfs分析 DataNode 数据读写分析

因为RPC是一个命令式的接口,而DataNode的数据处理是一种流式机制。    DataXceiverServer和DataXceiver 就是这个机制的实现。其中,DataXceiver依赖于两个辅助:BlockSender和 BlockReceiver。    DataXceviverServer:    用于监听来自客户或其他DataNodes的请求。监听块传输连接请求,同时控制进行的块传输请求数(同一时刻的传输数不能超过maxXceiverCount)和带宽耗费情况(块传输时耗费带宽不能超过预定值

2013-06-16 22:17:19 76

第七章:小朱笔记hadoop之源码分析-hdfs分析 DataNode 数据读写分析

因为RPC是一个命令式的接口,而DataNode的数据处理是一种流式机制。    DataXceiverServer和DataXceiver 就是这个机制的实现。其中,DataXceiver依赖于两个辅助:BlockSender和 BlockReceiver。    DataXceviverServer:    用于监听来自客户或其他DataNodes的请求。监听块传输连接请求,同时控制进行的块传输请求数(同一时刻的传输数不能超过maxXceiverCount)和带宽耗费情况(块传输时耗费带宽不能超过预定值

2013-06-16 22:17:19 69

第七章:小朱笔记hadoop之源码分析-hdfs分析 DataBlockScanner 文件校验

的数据处理不慎而出现错误,所以HDFS提供了下面两种数据检验方式,以此来保证数据的完整性,而且这两种检验方式在DataNode节点上是同时工作的: (1)校验和 检测损坏数据的常用方法是在第一次进行系统时计算数据的校验和,在通道传输过程中,如果新生成的校验和不完全匹配原始的校验和,那么数据就会被认为是被损坏的。 (2)数据块检测程序(DataBlockScanner) 在DataNode节点上开启一个后台线程,来定期验证存储在它上所有块,这个是防止物理介质出现损减情况而造成的

2013-06-16 21:47:10 79

第七章:小朱笔记hadoop之源码分析-hdfs分析 DataBlockScanner 文件校验

的数据处理不慎而出现错误,所以HDFS提供了下面两种数据检验方式,以此来保证数据的完整性,而且这两种检验方式在DataNode节点上是同时工作的: (1)校验和 检测损坏数据的常用方法是在第一次进行系统时计算数据的校验和,在通道传输过程中,如果新生成的校验和不完全匹配原始的校验和,那么数据就会被认为是被损坏的。 (2)数据块检测程序(DataBlockScanner) 在DataNode节点上开启一个后台线程,来定期验证存储在它上所有块,这个是防止物理介质出现损减情况而造成的

2013-06-16 21:47:10 171

第七章:小朱笔记hadoop之源码分析-hdfs分析 Datanode 注册分析

2013-06-16 21:43:04 62

第七章:小朱笔记hadoop之源码分析-hdfs分析 Datanode 注册分析

2013-06-16 21:43:04 45

第七章:小朱笔记hadoop之源码分析-hdfs分析 Datanode 心跳分析

node发送心跳报告,内容是dfs的容量、剩余的空间和DataXceiverServer的数量等,调用processCommand方法处理namenode返回的命令 (b)通知namenode已经接收的块 (c)检查块报告间隔是否超时,如是向namenode发送块报告,调用processCommand方法处理namenode返回的命令 (d)如果没到下个发送心跳的时候,休眠  /** * Main loop for the DataNode. Runs until shut

2013-06-16 21:40:04 82

第七章:小朱笔记hadoop之源码分析-hdfs分析 Datanode 心跳分析

node发送心跳报告,内容是dfs的容量、剩余的空间和DataXceiverServer的数量等,调用processCommand方法处理namenode返回的命令 (b)通知namenode已经接收的块 (c)检查块报告间隔是否超时,如是向namenode发送块报告,调用processCommand方法处理namenode返回的命令 (d)如果没到下个发送心跳的时候,休眠  /** * Main loop for the DataNode. Runs until shut

2013-06-16 21:40:04 74

第七章:小朱笔记hadoop之源码分析-hdfs分析 Datanode 启动过程分析

--config $HADOOP_CONF_DIR start datanode $dataStartOpt  (2)main()函数启动分析        主线程阻塞,让DataNode的任务循环执行,调用createDataNode方法创建datanode,等datanode线程结束 。 //主线程阻塞,让DataNode的任务循环执行 public static void secureMain(String [] args, SecureResources re

2013-06-16 21:34:11 54

第七章:小朱笔记hadoop之源码分析-hdfs分析 Datanode 启动过程分析

--config $HADOOP_CONF_DIR start datanode $dataStartOpt  (2)main()函数启动分析        主线程阻塞,让DataNode的任务循环执行,调用createDataNode方法创建datanode,等datanode线程结束 。 //主线程阻塞,让DataNode的任务循环执行 public static void secureMain(String [] args, SecureResources re

2013-06-16 21:34:11 81

第七章:小朱笔记hadoop之源码分析-hdfs分析 第三节:hdfs实现分析

2013-06-04 00:10:45 136

第七章:小朱笔记hadoop之源码分析-hdfs分析 第三节:hdfs实现分析

2013-06-04 00:10:45 86

第七章:小朱笔记hadoop之源码分析-hdfs分析 第三节:hdfs实现分析

2013-05-25 23:04:10 76

第七章:小朱笔记hadoop之源码分析-hdfs分析 第三节:hdfs实现分析

2013-05-25 23:04:10 60

第七章:小朱笔记hadoop之源码分析-hdfs分析 第三节:hdfs实现分析

信网络了解清楚,那么对于Hadoop的整体框架理解会有很大帮助。 HDFS中有5种协议: DatanodeProtocol ( DataNode && NameNode)InterDatanodeProtocol ( DataNode && DataNode) ClientDatanodeProtocol (Client && DataNode) ClientProtocol (Client

2013-05-25 23:00:56 47

第七章:小朱笔记hadoop之源码分析-hdfs分析 第三节:hdfs实现分析

信网络了解清楚,那么对于Hadoop的整体框架理解会有很大帮助。 HDFS中有5种协议: DatanodeProtocol ( DataNode && NameNode)InterDatanodeProtocol ( DataNode && DataNode) ClientDatanodeProtocol (Client && DataNode) ClientProtocol (Client

2013-05-25 23:00:56 34

原创 第七章:小朱笔记hadoop之源码分析-hdfs分析 第三节:hdfs实现分析

meNode和若干个DataNode组成的。其中NameNode作为主服务器, 管理文件系统的命名空间和客户端对文件的访问操作;集群中的DataNode管理存储的数据。HDFS允许用户以文件的形式存储数据。从内部来看,文件被分成若干个数据块,而且这若干个数据块存放在一组DataNode上。NameNode执行文件系统的命名空间操作,比如打开、关闭、重命名文件或目录 等,它也负责数据块到具体DataNode的映射。DataNode负责处理文件系统客户端的文件读写请求,并在NameNode的统一调度下进行数据块

2013-05-23 10:26:32 67

原创 第七章:小朱笔记hadoop之源码分析-hdfs分析 第三节:hdfs实现分析

meNode和若干个DataNode组成的。其中NameNode作为主服务器, 管理文件系统的命名空间和客户端对文件的访问操作;集群中的DataNode管理存储的数据。HDFS允许用户以文件的形式存储数据。从内部来看,文件被分成若干个数据块,而且这若干个数据块存放在一组DataNode上。NameNode执行文件系统的命名空间操作,比如打开、关闭、重命名文件或目录 等,它也负责数据块到具体DataNode的映射。DataNode负责处理文件系统客户端的文件读写请求,并在NameNode的统一调度下进行数据块

2013-05-23 10:26:32 78

原创 第七章:小朱笔记hadoop之源码分析-hdfs分析 第一节:基本概念

2013-05-23 10:25:50 59

原创 第七章:小朱笔记hadoop之源码分析-hdfs分析 第一节:基本概念

2013-05-23 10:25:50 93

原创 第七章:小朱笔记hadoop之源码分析-hdfs分析 第四节:namenode分析-Trash

2013-05-22 00:22:39 41

原创 第七章:小朱笔记hadoop之源码分析-hdfs分析 第四节:namenode分析-Trash

2013-05-22 00:22:39 46

原创 第七章:小朱笔记hadoop之源码分析-hdfs分析 第五节:Datanode 分析

验 5.5 DataNode 数据块接受/发送  5.1 Datanode 启动过程分析(1)shell脚本启动DataNode   start-dfs.sh "$bin"/hadoop-daemons.sh --config $HADOOP_CONF_DIR start datanode $dataStartOpt   (2)main()函数启动分析        主线程阻塞,让DataNode的任务循环执行,调用create

2013-05-22 00:11:06 93

原创 第七章:小朱笔记hadoop之源码分析-hdfs分析 第五节:Datanode 分析

验 5.5 DataNode 数据块接受/发送  5.1 Datanode 启动过程分析(1)shell脚本启动DataNode   start-dfs.sh "$bin"/hadoop-daemons.sh --config $HADOOP_CONF_DIR start datanode $dataStartOpt   (2)main()函数启动分析        主线程阻塞,让DataNode的任务循环执行,调用create

2013-05-22 00:11:06 63

原创 第七章:小朱笔记hadoop之源码分析-hdfs分析 第六节:SecondaryNameNode分析

t恢复数据    6.1 架构分析         SecondaryNameNode(snn)不是NameNode(nn)的热备进程。snn是HDFS架构中的一个组成部分,但是经常由于名字而被人误解它真正的用途,其实它真正的用途,是用来保存namenode中对HDFS metadata的信息的备份,并减少namenode重启的时间。对于hadoop进程中 ,要配置好并正确的使用 snn,还是需要做一些工作的。       hadoop的默认配置中让snn进程默认运行在了na

2013-05-22 00:10:35 38

原创 第七章:小朱笔记hadoop之源码分析-hdfs分析 第六节:SecondaryNameNode分析

t恢复数据    6.1 架构分析         SecondaryNameNode(snn)不是NameNode(nn)的热备进程。snn是HDFS架构中的一个组成部分,但是经常由于名字而被人误解它真正的用途,其实它真正的用途,是用来保存namenode中对HDFS metadata的信息的备份,并减少namenode重启的时间。对于hadoop进程中 ,要配置好并正确的使用 snn,还是需要做一些工作的。       hadoop的默认配置中让snn进程默认运行在了na

2013-05-22 00:10:35 65

原创 第七章:小朱笔记hadoop之源码分析-hdfs分析 第四节:namenode分析-namenode启动

2013-05-22 00:09:54 75

原创 第七章:小朱笔记hadoop之源码分析-hdfs分析 第四节:namenode分析-namenode启动

2013-05-22 00:09:54 106

原创 第七章:小朱笔记hadoop之源码分析-hdfs分析 第四节:namenode分析-format过程分

2013-05-22 00:09:30 55

原创 第七章:小朱笔记hadoop之源码分析-hdfs分析 第四节:namenode分析-format过程分

2013-05-22 00:09:30 46

原创 第七章:小朱笔记hadoop之源码分析-hdfs分析 第四节:namenode-ReplicationMonitor

择冗余的target节点,等待DN节点下次心跳将这些工作带回给相应的DN执行块冗余操作。(2)将各个数据节点上无效的数据块副本加入无效集合,等待下次心跳将这些工作带回给相应的DataNode执行删除无效块操作。默认每3s执行一次,可以通过修改dfs.replication.interval来调整执行间隔(1)computeDatanodeWork    计算datanode需要处理的replication数量,主要包括当前超时挂起的replication,需要进行复制的replication,计 划处理的r

2013-05-21 10:06:21 47

原创 第七章:小朱笔记hadoop之源码分析-hdfs分析 第四节:namenode-ReplicationMonitor

择冗余的target节点,等待DN节点下次心跳将这些工作带回给相应的DN执行块冗余操作。(2)将各个数据节点上无效的数据块副本加入无效集合,等待下次心跳将这些工作带回给相应的DataNode执行删除无效块操作。默认每3s执行一次,可以通过修改dfs.replication.interval来调整执行间隔(1)computeDatanodeWork    计算datanode需要处理的replication数量,主要包括当前超时挂起的replication,需要进行复制的replication,计 划处理的r

2013-05-21 10:06:21 73

Spring_Security_2_配置精讲

Spring_Security_2_配置精讲

2012-05-30

NoSQL技术培训 深入讲解

NoSQL技术培训 深入讲解

2012-05-30

JMX深入学习

JMX深入学习

2012-05-30

SOA深入讲解

SOA深入讲解

2012-05-30

Java分布式应用学习笔记02再谈JVM

Java分布式应用学习笔记02再谈JVM

2012-05-30

Java【分布式】学习笔记01分布式Java应用

Java分布式学习笔记01分布式Java应用

2012-05-30

JVM深入讲解

JVM深入讲解

2012-05-30

【java笔试面试必考题】淘宝 网易 阿里 腾讯

java笔试面试必考题 淘宝 网易 阿里 腾讯

2012-05-30

java大型企业面试 笔试题 集合

java大型企业面试 笔试题 集合 java大型企业面试 笔试题 集合 java大型企业面试 笔试题 集合

2011-03-30

某大型企业OA ajax dwr jquery spring hibernate struts

某大型企业OA ajax dwr jquery spring hibernate struts

2011-03-30

vc典试面经题--一道综合编程题

--一道综合编程题,通过简单的拷贝,展现作者的编程功底,很具有代表性

2011-02-09

只要认真看完,菜鸟绝对变高手!

只要你认真看完,菜鸟绝对变高手!这里汇集了java程序员必看必读的书籍!

2010-05-21

struts2国标化

struts2国标化嗯 看着还可以的 希望对大家有用好好学习了

2009-11-08

MVC jsp servlet 西安市《房产交易项目》源码(相当精美 很完整 容易部署 值得学习 收藏)

MVC jsp servlet 西安市《房产交易项目》源码(很完整 容易部署 值得学习 收藏) MVC jsp servlet 西安市《房产交易项目》源码(很完整 容易部署 值得学习 收藏) MVC jsp servlet 西安市《房产交易项目》源码(很完整 容易部署 值得学习 收藏) MVC jsp servlet 西安市《房产交易项目》源码(很完整 容易部署 值得学习 收藏)

2009-07-15

我的智囊团 struts+spring+hibernate+Ajax 整合项目源码(容易部署 值得学习)

我的智囊团 struts+spring+hibernate+Ajax 整合项目源码(容易部署 值得学习) 我的智囊团 struts+spring+hibernate+Ajax 整合项目源码(容易部署 值得学习) 我的智囊团 struts+spring+hibernate+Ajax 整合项目源码(容易部署 值得学习) 我的智囊团 struts+spring+hibernate+Ajax 整合项目源码(容易部署 值得学习) 我的智囊团 struts+spring+hibernate+Ajax 整合项目源码(容易部署 值得学习) 我的智囊团 struts+spring+hibernate+Ajax 整合项目源码(容易部署 值得学习)

2009-07-13

Ajax ExtJS 经典完美的QQ聊天系统(源码 可部署 学习 教学 收藏)

Ajax ExtJS 经典完美的QQ聊天系统(源码 可部署 学习 教学 收藏) Ajax ExtJS 经典完美的QQ聊天系统(源码 可部署 学习 教学 收藏) Ajax ExtJS 经典完美的QQ聊天系统(源码 可部署 学习 教学 收藏) Ajax ExtJS 经典完美的QQ聊天系统(源码 可部署 学习 教学 收藏)

2009-07-13

Oracle数据库 函数 大全 (精心整理的Oracle多个版本的函数 很全面 很值得 学习 收藏)

Oracle数据库 函数 大全 (精心整理的Oracle多个版本的函数 很全面 很值得 学习 收藏) Oracle数据库 函数 大全 (精心整理的Oracle多个版本的函数 很全面 很值得 学习 收藏)

2009-07-13

servlet.chm中文完整帮助手册api

servlet.chm中文完整帮助手册 中文完整帮助手册 值得下载收藏

2009-05-09

jQuery.chm中文完整帮助手册api

中文完整帮助手册api 完很整 值得下载 收藏

2009-05-09

css中文完整帮助手册api

css中文完整帮助手册api 很全面 中文帮助 很值得下载 很值得收藏

2009-05-09

程序员面试笔试最常见的问题(收集了数家大型软件公司面试考题)

有华为 百度 腾讯 等公司面试考题,很全面,很详细! 很值得下载!

2009-03-24

tomcat最新版兼容性好!!!

tomcat最新版 特好用 不出错!特好用 不出错!tomcat最新版兼容性好!!!

2009-03-22

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除