自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(20)
  • 资源 (6)
  • 收藏
  • 关注

转载 Linux 批量修改文件名

原文链接linux 批量重名名 Linux Shell 批量重命名的方法总览1、删除所有的 .bak 后缀:rename ‘s/.bak$//’ *.bak2、把 .jpe 文件后缀修改为 .jpg:rename ‘s/.jpe$/.jpg/’ *.jpe3、把所有文件的文件名改为小写:rename ‘y/A-Z/a-z/’ *4、将 abcd.jpg 重命名为 abcd_efg.jpg:for

2017-11-23 12:49:59 1710

原创 KMP字符匹配

在KMP 中,主要是寻找模式字串的前缀和后缀的最长的共有元素的长度。 以”ABCDABD”为例,   - “A”的前缀和后缀都为空集,共有元素的长度为0;   - “AB”的前缀为[A],后缀为[B],共有元素的长度为0;   - “ABC”的前缀为[A, AB],后缀为[BC, C],共有元素的长度0;   - “ABCD”的前缀为[A, AB, ABC],后缀为[BCD, CD, D]

2017-09-15 14:50:33 701

原创 caffe 报错 Check failed: error == cudaSuccess (77 vs. 0) an illegal memory access was encountered

之前从没有遇到这样的问题,找了三个小时的bug和资料后,在此处发现了解决方案,他是这么说的:In my case the “top” and “bottom” layer in the “deconvolution” layers where the same (save variable but with different num_output) and this cause a strange

2017-08-02 16:50:53 12128 13

原创 Deep Learning based Large Scale Visual Recommendation and Search for E-Commerce

一篇用于相似物品的图片推荐的paper,github地址 网络结构如下所示 图a展示的是整体的框架,每个VisNet具体细节如图b所示。 VisNet是具有两个分支:一个传统 的VGG16和一个浅层网络(kernel size 较大) VGG16用于提取 high level/ abstract details 浅层网络用于提取 low level/fine-graind detailst

2017-04-29 21:23:58 811

转载 生成对抗式网络GAN 的 loss

GAN同时要训练一个生成网络(Generator)和一个判别网络(Discriminator),前者输入一个noise变量 zz ,输出一个伪图片数据 G(z;θg)G(z;\theta_g),后者输入一个图片(real image)以及伪图片(fake image)数据 xx ,输出一个表示该输入是自然图片或者伪造图片的二分类置信度 D(x;θd)D(x;θ_d),理想情况下,判别器DD 需要尽可

2017-04-27 14:23:51 27142 3

原创 Python re 正则 替换 括号内的内容

目标:将adod(23d)das中括号间的内容即23d替换为000 import re pattern=re.compile(r’(?<=().+?(?=))’) str1 = pattern.sub(str2 , str0)str0:adod(23d)das str2:000 str1:adod(000)das前向界定与后向界定 有时候需要匹配一个跟在特定内容后面的或者在特定内容前面的

2017-04-25 15:11:06 14199 5

原创 SSD 里的 atrous

SSD 论文里提到 Similar to DeepLab-LargeFOV , we convert fc6 and fc7 to convolutional layers, subsample parameters from fc6 and fc7, change pool5 from 2x2-s2 to 3x3-s1, and use the `a trous algorithm to fi

2017-04-23 21:26:19 6346 2

转载 caffe 计算 conv 图解

最后基本上就是Filter Matrix乘以Feature Matrix的转置,得到输出矩阵Cout x (H x W),就可以解释为输出的三维Blob(Cout x H x W)。

2017-04-23 18:49:30 652

原创 mxnet 编译后运行的第一个demo train_mnist.py时的错误

mxnet 编译后运行的第一个demo train_mnist.py时的错误OSError: /home/usrname/anaconda2/bin/../lib/libgomp.so.1: version `GOMP_4.0’ not found其实这个错误会在import mxnet时出现,原因是因为anaconda里对应的文件已经过期,需要update。 具体方法: 1. cd ./mxn

2017-04-22 12:47:30 682

转载 堆和栈的区别

在C++中,内存分成5个区,他们分别是堆、栈、自由存储区、全局/静态存储区和常量存储区。栈,就是那些由编译器在需要的时候分配,在不需要的时候自动清除的变量的存储区。里面的变量通常是局部变量、函数参数等。 堆,就是那些由new分配的内存块,他们的释放编译器不去管,由我们的应用程序去控制,一般一个new就要对应一个delete。如果程序员没有释放掉,那么在程序结束后,操作系

2017-04-16 23:27:42 217

翻译 局部加权线性回归

局部加权线性回归是机器学习里的一种经典的方法,弥补了普通线性回归模型欠拟合或者过拟合的问题。机器学习里分为无监督学习和有监督学习,线性回归里是属于有监督的学习。普通的线性回归属于参数学习算法(parametric learning algorithm);而局部加权线性回归属于非参数学习算法(non-parametric learning algorithm)。所谓参数学习算法它有固定的明确的参数,

2017-03-27 14:14:44 385

转载 Accuracy Layer

caffe在计算Accuravy时,利用的是最后一个全链接层的输出(不带有acitvation function),比如:alexnet的train_val.prototxt、caffenet的trainval.prototxt下图是这两个网络训练配置文件(prototxt文件)计算Accuray的配置文件截图的截图(对于该部分,alexnet和caffenet是一致的)最后一个全连接层 计算

2016-09-27 22:14:47 1383

转载 softmaxWithLoss Layer

caffe中的softmaxWithLoss其实是: softmaxWithLoss = Multinomial Logistic Loss Layer + Softmax Layer其中: Multinomial Logistic Loss Layer 即为交叉熵代价函数 Softmax Layer其实就是指softmax function(全连接那一步在它前面的fc中实现)示意图如下

2016-09-27 22:04:07 1194

原创 图像缩放by双线性插值

图像缩放by双线性插值现有300×300300\times300大小的图像I0,希望将它resize到 400×400400\times400 I1。 那么对于目标图像I1中的每个像素点来说,应该从原始图像I0中能找到对应的点来进行赋值。以下公式给出了这种对应关系: srcX=dstX×(srcWidth/dstWidth)(1)srcX = dstX \times (srcWidth / ds

2016-09-09 16:01:26 973

原创 fast-rcnn安装记录

第一教程当然是:https://github.com/rbgirshick/fast-rcnn第二,建议安装anaconda,后续将会很方便;PYTHON_INCLUDE及PYTHON_LIB如果使用了anaconda,在Makefile.config文件中打开ANACONDA_HONE,打开包含ANACONDA_HONE的PYTHON_INCLUDE及PYTHON_LIB,注释掉

2016-03-07 22:00:29 10833 1

转载 average presion(AP)

https://sanchom.wordpress.com/tag/average-precision/

2016-01-12 14:35:05 854

转载 偏差、方差的权衡(trade-off)

偏差(bias)和方差(variance)是统计学的概念,刚进公司的时候,看到每个人的嘴里随时蹦出这两个词,觉得很可怕。首先得明确的,方差是多个模型间的比较,而非对一个模型而言的,对于单独的一个模型,比如说:    这样的一个给定了具体系数的估计函数,是不能说f(x)的方差是多少。而偏差可以是单个数据集中的,也可以是多个数据集中的,这个得看具体的定义。    方差和偏差一般

2014-12-25 18:44:02 3203

原创 python 安装 feedparser

学习《机器学习实战》的时候,需要RSS,首先要先安装feedparser。书上是这么说的: 在win7系统下进入cmd,首先配置python环境变量,可以自行搜索具体配置方法。这里可以下载feerparser:https://pypi.python.org/pypi/feedparser打开feedparser目录下的setup.py,用from distutils.core

2014-12-11 10:11:31 6334 1

翻译 my machine learning

分类:1.kNN优点:精度高、对异常值不敏感、无数据输入假定。缺点:计算复杂度高、空间复杂度高。适用数据范围:数值型和标称型。2.决策树优点:计算复杂度不高,输出结果易于理解,对中间值的缺失不敏感,可以处理不相关特称数据。缺点:可能会产生过度匹配问题。适用数据类型:数值型和标称型。

2014-12-05 10:45:25 695

原创 win7 安装matplotlib

一个下午搞完了scikit-learn后,又被这个matplotlib卡住了,后来发现了pip是个好东西,也很方便先下载get-pip.py,(很多)以管理员方式打开cmd,进入python所在的文件目录,输入python get-pip.py  以下这个网址有具体步骤和获取get-pip.pyhttp://stackoverflow.com/questions/4750806/h

2014-12-03 18:38:47 1250 1

MatConvNet win7 已编译

MatConvNet 安装总会出现很多问题,不需要安装,直接可以使用

2015-05-12

统计学精要

The Elements of Statistical Learning 的中文版

2015-04-07

FullBNT-1.0.4

贝叶斯网络matlab工具箱,FullBNT-1.0.4

2015-01-11

机器学习实战(中文+英文)

机器学习实战(中文+英文+源码)同时也是学习python的好书

2014-12-12

win7_64_scikit_matplotlib

win7_64_scikit_matplotlib

2014-12-06

win64 python2.7+numpy+scipy找了好久才整理出来的

win64 python2.7+numpy+scipy找了好久才整理出来的

2014-11-24

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除