自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(28)
  • 收藏
  • 关注

原创 Caffe学习5-用C++自定义层以及可视化结果

用C++自定义 层以及可视化结果用C自定义 层以及可视化结果用C自定义层三处地方重新编译并测试可视化结果可视化loss可视化blobs修改caffecpp添加可视化层后记上一周,我们学校开始了实训,我参与的项目是深度学习相关的,于是第一周我们专注与学习Caffe的使用,包括对Caffe的源码的理解。接着,我们被要求定义一个自己的数据输入层,以完成特定的任务。用C++自定义层对于刚开

2016-07-04 09:43:35 4402 1

原创 Caffe学习4-利用caffe.proto自定义自己的网络

利用caffe.proto自定义自己的网络利用caffeproto自定义自己的网络先不急让我们来看一下caffeproto里面都是些什么让我们把caffeproto用起后记caffe.proto存放在src/caffe/proto/目录下,建议读者能够打开它,跟着这篇教程,学会如何把它用起来(很多人都说要看,反正才一千三百多行是吧…小编我看了两百行就想睡觉了,关键是看了还容易忘,所以小编的建

2016-05-22 18:48:25 10713 6

原创 Caffe学习3-Solver

SolverSolverSolver过程Solver方法选择Solver初始化Snapshotting与ResumingCaffe中的Solver是一个框架,在这个框架里,我们并没有控制权,我们能做的有填充solver需要的代码。 并且对于没有接触过Caffe的读者,强烈建议先阅读小编的上一篇基础内容,然后再看下面的内容会比较好理解。Solver过程Solver的过程大致如下:初始化so

2016-05-21 10:41:16 1635

原创 Caffe学习2--Blobs,Layers与Nets

Blobs,Layers与NetsBlobsLayers与NetsBlobsLayersNets后记Caffe主要就是有Blobs,Layers与Nets三部分组成,当然少不了Caffe内部的自动化机制,但是对于使用者来说,与我们密切相关的就是本文要介绍的这三个数据结构。 BlobsCaffe里面的数据存储的结构就是blob,它把用作前向传播的数据以及后向传播的梯度都保存了起来。再数学层面

2016-05-20 11:45:41 4745

原创 Caffe学习1-Ubuntu下的Caffe的搭建

Ubuntu14.04下的Caffe7.5的搭建 参考来源:https://github.com/tiangolo/caffe/blob/ubuntu-tutorial-b/docs/install_apt2.md本教程是在Ubuntu14.04下的(因为CUDA官方目前在Ubuntu64bit下支持的只有14.04和15.04两个版本,小编曾经试过在16.x的版本安装,结果的惨烈的)安装Gi

2016-05-18 23:16:44 3025

原创 CS231n笔记7-ConvNets Typical Architecture与VGGNet

ConvNets Typical Architecture与VGGNetConvNets Typical Architecture-卷积神经网络经典结构写到这里,小编已经大体覆盖了构建一个大型卷积神经网络所需要的知识点。下面是小编在上课是总结的卷积神经网络的结构。 读者是不是觉得上面的图的那些英文都似曾相识,是的,小编在之前的学习笔记中都有介绍,为了方便读者阅读,下面小编给出相应的链接 Con

2016-05-18 11:09:43 11538 4

原创 CS231n笔记6--Convolution与Pooling

Convolution与PoolingConvolution与Pooling卷积-Convolution如何卷积首先给出要卷积的数据设置卷积的参数根据数据使用对应的过滤器开始卷积卷积参数计算公式非向量化的卷积层代码池化-Pooling后记卷积-Convolution总于写到卷积层这一部分了,呼。为了给大家一个比较容易理解的解释,我这一部分会以例子的形式来讲解如何做卷积。 相信如

2016-05-15 21:11:22 5543 3

原创 CS231n笔记5--Weights Update 与 Dropout

Weights Update 与 DropoutWeights Update 与 Dropout参数更新Weights Update学习率是怎么来的随机梯度下降-Stochastic Gradient DescentBatch与SGD的合体Mini-Batch Gradient Descent再给力点Momentum来了考虑得再多一些-Nesterov Momentum Update平

2016-05-14 21:09:27 5239 2

原创 CS231n笔记4-Data Preprocessing, Weights Initialization与Batch Normalization

Data Preprocessing, Weights Initialization与Batch NormalizationData Preprocessing Weights Initialization与Batch Normalization数据预处理Data Preprocessing权重初始化Weights Initialization让权重初始化为00方差1e-2标准差0方差1标

2016-05-14 14:57:21 6206 2

原创 CS231n笔记3--Gradient Descent与Backward Propagation

Gradient Descent与Backward Propagation梯度下降-Gradient Descent求梯度的方法根据梯度的定义:Numerical Method利用求导的常用公式根据梯度的定义求梯度f′(x)=limΔx→0f(x+Δx)−f(x)Δxf'(x)=\lim_{\Delta x\to 0}\dfrac{f(x+\Delta x)-f(x)}{\Delta x}

2016-05-14 11:59:14 1845 2

原创 CS231n笔记2--Fully Connected Neural Network与Activation Function

Fully Connected Neural Network与Activation Function神经网络–Fully Connect Neural Network一个最简单的神经网络 hw,b=f(x1w1+x2w2+x3w3+b)=f(XW+b)h_{w,b}=f(x_1w_1+x_2w_2+x_3w_3+b)=f(XW+b) 向量化的python代码def f(z): retur

2016-05-14 01:15:30 7475

原创 CS231n笔记1--Softmax Loss 和 Multiclass SVM Loss

Softmax Loss 和 Multiclass SVM LossSoftmax Loss给出 (xi,yi)(x_i, y_i) ,其中 xix_i 是图像,yiy_i 是图像的类别(整数),s=f(xi,W)s = f(x_i,W),其中ss 是网络的输出,则定义误差如下: P(Y=k|X=xi)=esk∑jesjLi=−logP(Y=yi|X=xi)P(Y = k|X = x_i) =

2016-05-13 17:17:17 8381 3

原创 实训周报2--RCNN论文解读

RCNN论文解读RCNN论文解读模型的结构Region ProposalCNNsSVMs分类器可视化手段这一周,我们主要的任务是继续完善DISC的coarse net以及实现DISC的fine net,另外,我们还需要看一篇堪称经典到不能再经典的论文,那就是Ross et.的Rich feature hierarchies for accurate object detection and

2016-07-07 15:23:56 2105 1

原创 实训周报1-AlexNet论文全解读

Week Report 1—AlexNetWeek Report 1AlexNetAlexNet的网络结构卷积层ReLU这个不是层不过也放在这里讨论吧池化层全连接层Dropout层数据预处理均值归零crop采样Fancy PCA采样这一周,我们主要关注深度学习环境的搭配以及两篇重要的论文,分别是“Imagenet Classification with Deep Convolut

2016-07-02 00:05:17 4406

原创 利用JUnit4进行单元测试

利用JUnit4进行单元测试利用JUnit4进行单元测试待测试代码引入JUnit4包添加JUnit Test Case开始单元测试初始化测试实例以及setUptearDown方法自定义第一个测试方法利用assertEquals做异常处理跳过某些测试方法设置timeout检查死循环后记单元测试是测试里面非常重要的一块,而且单元测试通常都是由编程人员自行测试的,因此,不是说只有从事测

2016-05-31 14:57:37 828

原创 Git的使用

Git 的使用Git 的使用Git的安装Windowsubuntu建立本地仓库克隆远程仓库本地初始化仓库三个关键的区域WorkspaceStageRepository基本操作增改文件撤销修改分枝操作创建分枝合并分枝解决冲突保存工作区状态后记最近我和朋友们讨论到git使用相关事情时,突然发现原来有不少人一直都搞不清git和github的区别的…这么说吧,git是本

2016-05-30 21:43:55 632

原创 用JS生成MIDI文件(附代码)

用JS生成MIDI文件大家好,近期我们的课程需要我们做一个应用,我的的小组打算做一个在线的伴奏制作平台,这意味着我们需要知道如何在线制作音乐以及如何用浏览器播放。 小编我这一节就跟大家讲解下如何用Javascript从无到有编写一个属于自己的MIDI制作程序吧。 首先,先给大家一篇讲解MIDI格式讲解的链接,中文!小编这里就不多赘述啦。 http://blog.sina.com.cn/s

2016-05-26 20:52:35 6713

原创 【Machine Learning】5.正则化

过渡拟合(overfitting)问题:正则化用来解决过渡拟合的问题。高偏差或者欠拟合问题是指假说函数值与真实值的误差趋势较大,通常是由于这个假说函数太简单或者使用了较少的特征作为输入。另一个极端是过渡拟合或高分歧是由于假说函数拟合了大量的输入值但是并不具有很好的兼容性,不能很好的用以预测新的数据,通常是由于假说函数过于复杂而产生了大量不必要的弯曲。无论是在线性回归还是逻辑回归都会

2015-11-13 20:03:09 963

原创 [Machine Learning]4.逻辑回归(logistic regression)

接下来我们将从回归问题切换至分类问题。分类问题的名字logistic regression是由于历史原因,但事实上讨论的并不是用于regression问题,而是classification问题。分类在这时,我们的输出值y再也不是连续量,而是离散值,不是0就是1.y=0代表反向类别,y=1代表正向类别,当然我们也可以根据自身需要给y自己的类别定义。现在我们只讨论只有两个类别的

2015-11-08 18:18:40 938

原创 【Machine Learning】3.多元线性回归

多元特征线性问题中带有多个变量的问题称为“多元线性回归”问题。

2015-11-04 14:47:35 620

原创 【Machine Learning】2.一元线性回归

模型表示在线性回归问题中,我们将只有一个变量的称为“一元线性回归”问题一元线性回归问题通常用于解决从单一的输入到单一的输出的问题假说函数(Hypothesis Function)假说函数通式:h_theta(x) = theta_0 + theta_1*x这个h函数就是将输入映射到输出的函数例如x (input)y (output)

2015-11-04 13:22:38 491

原创 【Modern Business Process Automation】现代业务流程自动化:Day6.流程挖掘介绍

2015-09-21 22:05:13 696

原创 【Modern Business Process Automation】现代业务流程自动化:Day5.Or-join

2015-09-21 11:37:20 830

原创 【Modern Business Process Automation】现代业务流程自动化:Day3.数据模型和资源模型

2015-09-21 10:58:35 938

原创 【Modern Business Process Automation】现代业务流程自动化:Day2.控制流模型

2015-09-21 09:51:25 656

原创 【Modern Business Process Automation】现代业务流程自动化:Day1.基础

2015-09-21 09:26:30 1083

原创 【Deep Learning】1.深度学习:稀疏自编码器

在学过Andrew Ng的机器学习后,开始接触进阶的课程深度学习,这次主要写的是自编码器和稀疏限制,用于发掘数据中有趣的结构

2015-08-17 10:17:46 3926

原创 【Machine Learning】1.机器学习简介

简单介绍机器学习的定义、分类。

2015-08-16 19:16:38 742

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除