自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(11)
  • 收藏
  • 关注

原创 目标检测之one-stage和two-stage网络的区别

One-stage网络以yolo系列网络为代表的,two-stage网络以faster-rcnn为代表的,它们的主要区别1.one-stage网络速度要快很多2.one-stage网络的准确性要比two-stage网络要低为什么.one-stage网络速度要快很多?首先来看第一点这个好理解,one-stage网络生成的ancor框只是一个逻辑结构,或者只是一个数据块,只需要对这个数据块进...

2019-01-09 18:28:06 23115 8

原创 深度学习cptn+crnn的OCR原理

CPTNCRNN总结首先我们要看ocr要做的是什么,识别一张图片里面的一行文字,输出来,假如我一张图片里面只有一行文字,但是这一行文字只占了中间的一个区域,两边有很多空的地方,那么我怎么做呢,我首先肯定是要把这张图片中这一行文字给找到,给框出来,找到之后在去识别里面的每个文字是什么文字,也就是两个步骤1.找到一张图片中的一行文字,就是把这行文字给框出来(ctpn)2.找到这行文...

2019-01-09 18:22:59 16613 2

原创 深度学习之图像分割网络FCN、MaskRCNN总结

FCN总结:第一步:最终得到的conv7,也就是161621(注意不一定要是1121,全卷积114096这个只是将全连接层转为全卷积层,是114096,如果我压根就没有全连接层,我全是卷积层,那么最终得到161621也是很正常),它经过上采样后得到343421的feature map,与前面第四个卷积层池化后的feature map拼接,拼接之后再次经过上采样得到707021的featur...

2018-12-23 16:04:31 3261

原创 深度学习之卷积网络attention机制SENET、CBAM模块原理总结

SENETSENET是2017年的世界冠军,SE全称Squeeze-and-Excitation是一个模块,将现有的网络嵌入SE模块的话,那么该网络就是SENet,它几乎可以嵌入当前流行的任何网络,那么为什么会引出这个东西呢,来看下图:一个feature map经过一系列卷积池化得到的feature map,通常我们认为这个得到的feature map的每个通道都是同样重要的,我们并没有分那...

2018-12-23 15:36:06 18857 14

原创 深度学习之残差网络原理深度刨析

为什么要加深网络?深度卷积网络自然的整合了低中高不同层次的特征,特征的层次可以靠加深网络的层次来丰富。从而,在构建卷积网络时,网络的深度越高,可抽取的特征层次就越丰富。所以一般我们会倾向于使用更深层次的网络结构,以便取得更高层次的特征。但是在使用深层次的网络结构时我们会遇到两个问题,梯度消失,梯度爆炸问题和网络退化的问题。也就是我们需要不断加深网络,因为网络越深,那么特征的层次也就越高,...

2018-12-23 12:46:37 1558 2

原创 深度学习之 梯度消失与爆炸原因公式推导

如果要求w1的梯度的话,那么就是假如激活函数用的sigmod话,那么如下:所以所以导致梯度消失问题那么为什么换了relu激活函数也会有梯度消失问题呢?因为乘积中还有另外一部分这个wj如果有很多w是0到1之间的数,那么最终还是会导致梯度消失,如果有很多都是大于1的数,那么就会导致梯度爆炸...

2018-12-23 12:19:45 891

原创 GDBT+LR融合方案总结

传统的广告点击率预估场景中,提取特征的流程如下:在广告点击率预估这个场景中,由于经常就是上亿量的数据,经常使用LR模型来预估(它是将函数值映射到0,1区间,映射后的函数值就是预估值)因为这个模型简单,容易实现并行,但是正因为它简单,所以它的学习能力有限,所以这个时候,特征工程就很重要了,如何选择一些比较有效的特征,以及特征组合就是一个关键了,而传统的采用人工去筛选重要特征的话,比较麻烦,耗时耗...

2018-12-23 11:00:31 880

转载 机器学习之PCA降维原理刨析

降维实际工作中我们的特征数比较大时,那么模型训练的时候比较耗资源和时间,一般都需要考虑降低维度通常一般的做法是,1 根据特征的方差,如果特征的方差比较小或者几乎为0时,那么可以考虑将该特征删掉2 根据特征之间的相关性,如果某个特征和另一个特征几乎成正相关或者负相关的话,那么可以将其中某一个特征删除,这样,其实删除后的信息并不会丢失,因为根据其中保留的特征可以推出另一个删除的特征其实降低...

2018-12-23 10:37:20 183

原创 ai数学之矩阵特征值、特征向量、矩阵分解

特征值和特征向量的意义从定义出发,Ax=cx:A为n阶矩阵,c为特征值,x为特征向量。矩阵A乘以x表示,对向量x进行一次转换(旋转或拉伸)(是一种线性转换),而该转换的效果为常数c乘以向量x(即只进行拉伸)。我们通常求特征值和特征向量即为求出该矩阵能使哪些向量(当然是特征向量)只发生拉伸,使其发生拉伸的程度如何(特征值大小)。这样做的意义在于,看清一个矩阵在那些方面能产生最大的效果(powe...

2018-12-22 23:14:50 604

原创 算法之求最大连续子数组和

假设给定一数组{1,4,2,-3,-1,2,5,6,-8,9},我们要求的是最大的连续子序列的和,如果采用暴力破解法的话,那就是遍历所有的连续子序列了,时间复杂度就是O(N^3)代码如下:private int max = Integer.MIN_VALUE;public int maxSubArray(int[] nums) {int sum;for (int i = 0; i <...

2018-12-22 18:32:37 315

原创 动态规划算法总结

动态规划算法总结设长度为N的数组为{a0,a1, a2, …an-1),则假定以aj结尾的数组序列的最长递增子序列长度为L(j),则L(j)={ max(L(i))+1, i<j且a[i]<a[j] }。也就是说,我们需要遍历在j之前的所有位置i(从0到j-1),找出满足条件a[i]<a[j]的L(i),求出max(L(i))+1即为L(j)的值。最后,我们遍历所有的L(j)(...

2018-12-22 16:56:08 138

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除