自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(20)
  • 收藏
  • 关注

转载 贝叶斯估计

贝叶斯与频率派思想频率派思想    长久以来,人们对一件事情发生或不发生,只有固定的0和1,即要么发生,要么不发生,从来不会去考虑某件事情发生的概率有多大,不发生的概率又是多大。而且事情发生或不发生的概率虽然未知,但最起码是一个确定的值。比如如果问那时的人们一个问题:“有一个袋子,里面装着若干个白球和黑球,请问从袋子中取得白球的概率是多少?”他们会立马告诉你,取出白球的

2017-03-23 22:46:01 7198

原创 随机采样--MCMC

随机采样随机模拟也可以叫做蒙特卡罗模拟(Monte Carlo Simulation)。这个方法的发展始于20世纪40年代,和原子弹制造的曼哈顿计划密切相关,当时的几个大牛,包括乌拉姆、冯.诺依曼、费米、费曼、Nicholas Metropolis, 在美国洛斯阿拉莫斯国家实验室研究裂变物质的中子连锁反应的时候,开始使用统计模拟的方法,并在最早的计算机上进行编程实现。[3]随机模拟中有一个重要的问题

2017-03-10 10:59:40 406

转载 caffe中如何可视化cnn各层的输出

正如caffe的examples所提,CNN model并不是一个黑盒,caffe提供了工具来查看cnn各层的所有输出1.查看CNN各层的activations值的结构(即每一层的输出)代码如下:# 显示每一层for layer_name, blob in net.blobs.iteritems(): print layer_name + '\t' + str(blo

2017-03-03 13:04:28 1067 1

转载 triplet loss 原理以及梯度推导

【前言】 最近,learning to rank 的思想逐渐被应用到很多领域,比如google用来做人脸识别(faceNet),微软Jingdong Wang 用来做 person-reid 等等。learning to rank中其中重要的一个步骤就是找到一个好的similarity function,而triplet loss是用的非常广泛的一种。【理解triplet】

2017-02-25 12:16:41 648

转载 MLP、RBF、SVM网络比较及其应用前景

摘  要: 本文主要对MLP、RBF、SVM三种神经网络进行了详细的分析与讨论,从三种网络的结构、学习算法、功能和性能等方面进行了比较。同时,结合自己的研究方向讨论了三种结构的神经网络的应用前景。1.      引言        神经网络(neural network,NN)是一个以有向图为拓扑结构的动态系统,它通过对连续或断续式的输入作状态响应而进行信息处理。是一个高度复杂的非线性动力

2017-02-24 14:50:49 1192

原创 caffe--- 图片数据均值计算小工具

图片减去均值后,再进行训练和测试,会提高速度和精度。因此,一般在各种模型中都会有这个操作。caffe中使用的均值数据格式是binaryproto, 作者为我们提供了一个计算均值的文件compute_image_mean.cpp,放在caffe根目录下的tools文件夹里面。但是这要求先把图片转换为lmdb格式,如果是自己写的data层(一般用pyhon写),则需要另外写

2017-02-24 11:27:54 1972

转载 一个 Q-learning 算法的简明教程

第一部分:中文翻译第二部分:英文原文

2017-01-10 09:59:16 9676 1

转载 Caffe源码解析3: Data_layer

转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang-loves-baiyan/data_layer应该是网络的最底层,主要是将数据送给blob进入到net中,在data_layer中存在多个跟data_layer相关的类BaseDataLayerBasePrefetchingDataLayerDataLayerDummyDa

2016-12-22 17:24:29 275

转载 Caffe源码解析2:Layer

转载请注明出处,楼燚(yì)航的blog,http://home.cnblogs.com/louyihang-loves-baiyan/layer这个类可以说是里面最终的一个基本类了,深度网络呢就是一层一层的layer,相互之间通过blob传输数据连接起来。首先layer必须要实现一个forward function,前递函数当然功能可以自己定义啦,在forward中呢他会从input也就

2016-12-22 17:08:16 512 4

转载 Caffe源码解析1:Blob

转载请注明出处,楼燚(yì)航的blog,http://www.cnblogs.com/louyihang-loves-baiyan/首先看到的是Blob这个类,Blob是作为Caffe中数据流通的一个基本类,网络各层之间的数据是通过Blob来传递的。这里整个代码是非常规范的,基本上条件编译,命名空间,模板类,各种不太经常看到的关键字如exlicit,inline等等。首先提一下exp

2016-12-22 16:20:28 387

原创 caffe中Python层的使用

caffe的大多数层是由c++写成的,借助于c++的高效性,网络可以快速训练。但是我们有时候需要自己写点输入层以应对各种不同的数据输入,比如你因为是需要在图像中取块而不想写成LMDB,这时候可以考虑使用python直接写一个层。而且输入层不需要GPU加速,所需写起来也比较容易。python层怎么用先看一个网上的例子吧(来自http://chrischoy.github.io/res

2016-12-22 15:58:40 5646 3

原创 RNN和LSTM

教程:http://www.wildml.com/2015/09/recurrent-neural-networks-tutorial-part-1-introduction-to-rnns/理解LSTM网络:http://www.jianshu.com/p/9dc9f41f0b29LSTM数学推导:http://www.360doc.com/content/15/1101

2016-12-15 20:58:31 322

转载 循环神经网络(RNN)反向传播算法(BPTT)理解

http://blog.csdn.NET/linmingan/article/details/50958304循环神经网络的反向传播算法其实只是BP算法的一个简单变体而已。首先我们先看看循环神经网络的前向传播算法:需要注意的是,该RNN中前一时刻到当前时刻只有一个权重矩阵,该权重矩阵与时间并没有什么关系。整个前向传播算法与BP网络的前向传播算法的差别是多了一

2016-12-15 16:51:19 2636

转载 深度卷积神经网络在目标检测中的进展

作者:travelsea链接:https://zhuanlan.zhihu.com/p/22045213来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。近些年来,深度卷积神经网络(DCNN)在图像分类和识别上取得了很显著的提高。回顾从2014到2016这两年多的时间,先后涌现出了R-CNN,Fast R-CNN, Faster R-CNN,

2016-12-10 14:38:23 907

转载 SIFT

http://blog.csdn.net/zddblog/article/details/7521424

2016-12-07 14:54:13 366

转载 从特征描述符到深度学习:计算机视觉发展20年

从特征描述符到深度学习:计算机视觉发展20年从特征描述符到深度学习:计算机视觉发展20年Author: Tomasz Malisiewicz翻译:赵毅力(panovr at gmail dot com)我们都知道在过去两年(2012-2014年)深度卷积神经网络在目标检测与识别的基准测试中有过辉煌的成绩,所以你可能会问:在此之前的物体识别技术是什么样子?早期识别系统的设计和现代

2016-11-28 20:55:11 976

转载 计算机视觉经典论文

http://blog.csdn.net/u011534057/article/details/51742285

2016-11-25 17:25:03 498

转载 非极大值抑制

非极大值抑制算法1. 算法原理  非极大值抑制算法(Non-maximum suppression, NMS)的本质是搜索局部极大值,抑制非极大值元素。2. 3邻域情况下NMS的实现  3邻域情况下的NMS即判断一维数组I[W]的元素I[i](2    a. 算法流程3-5行判断当前元素是否大于其左邻与右邻元素,如符合条件,该元素即为

2016-11-23 10:21:00 323

转载 AdaBoost原理

http://blog.csdn.net/dark_scope/article/details/14103983

2016-11-19 16:17:31 180

转载 BP算法直观理解和详细推导

直观理解,从残差入手,形象表达了反向传播的概念:http://www.cnblogs.com/daniel-D/archive/2013/06/03/3116278.html详细推导:http://www.cnblogs.com/biaoyu/archive/2015/06/20/4591304.html

2016-10-25 16:45:07 275

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除