自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(27)
  • 收藏
  • 关注

原创 GAN与WassersteinGAN代码keras分析

GAN交流qq群: gitbub 代码:https://github.com/tdeboissiere/DeepLearningImplementations 使用mnist数据集。 train_GAN.py: gen_loss = 100 disc_loss = 100 # Start training print("Start

2017-02-19 12:15:07 8707

转载 会议时间表及级别

转自:http://www.cvchina.info/tag/icpr/ 以下是全文放上来共享,兼备忘。 http://iris.usc.edu/Information/Iris-Conferences.html 下面这张表早晚得过期,还是点击上面的链接跳转查询吧。 偶尔转帖:AI会议的总结(by南大周志华) 2010年2月24日cvchina没有评论 说明: 纯属个人看法, 仅供参考.

2017-02-08 09:58:35 14372

翻译 文章标题

按顺序背字母表我们都可以,但是如果要求倒着被字母表呢?是不是很困难。有个非常明显的逻辑在里面,我们学习字母表或者歌词并不像储存硬盘那样。我们更擅长从一个字母接着另一个字母的记忆,我们是按照序列(sequence)学习它。就像某种条件记忆,当年有前面的记忆时候才会有下一时刻的记忆。 像关联列表那样存储记忆会非常有效。如果建模成一个短的条件记忆,一些过程/问题/表达/搜索会非常有效。 如果你的数据是

2017-02-08 09:22:04 404

转载 python 类和实例

面向对象最重要的概念就是类(Class)和实例(Instance),必须牢记类是抽象的模板,比如Student类,而实例是根据类创建出来的一个个具体的“对象”,每个对象都拥有相同的方法,但各自的数据可能不同。仍以Student类为例,在Python中,定义类是通过class关键字:class Student(object): passclass后面紧接着是类名,即Student,类名通常是大

2017-02-05 21:29:28 607

转载 LSTM

RNN用以解决传统神经网络无法令信息前后依赖的问题,但是不能解决长期依赖的问题。

2017-02-03 15:48:46 692

转载 HMM学习

马尔科夫过程: 该过程中,每个状态的转移只依赖于之前的 n 个状态,这个过程被称为1个 n 阶的模型,其中 n 是影响转移状态的数目。 如果是1阶: 状态只与前一时刻状态有关。 隐马尔科夫模型: 状态不可获得,称作隐藏状态,但能够由观测状态推断隐藏状态,即可以观察到的状态序列和隐藏的状态序列是概率相关的。 于是我们可以将这种类型的过程建模为有一个隐藏的马尔科夫过程和一个与这个隐藏马尔

2017-01-26 13:20:14 840

原创 Fibonacci法的matlab实现

推导过程看百度文库中的ppt Fibonacci法的基本步骤: 测试程序:try_FibonacciOpt.mclear all;clc%% the original conditionsf=@(x)exp(-x)+x^2;a=0;b=1;Theta_error=0.15;%% execute FibonacciOpt Algorithm[x_opt,f_opt,step

2016-12-28 18:13:00 12422 1

原创 一维搜索的最优方法(黄金分割法)matlab程序

例题: 用0.618法求解下列问题: mine−x+x2min \quad e^{-x}+x^2 要求最终区间长度L≤0.2L \le 0.2,初始区间为[0,1]。执行文件:executegoldenOpt.mclear all;clc%% the original conditionsf=@(x)exp(-x)+x^2;a=0;b=1;Theta_error=0.2;%% exe

2016-12-28 15:49:38 27087 4

原创 python三维、四维数组相乘

没找到规则,只能通过具体例子理解,有知道具体规则的望不吝赐教。 例1,三维数组相乘import numpy as npa=np.arange(8).reshape([2,2,2])b=np.arange(8).reshape([2,2,2])c=a*b则三维矩阵a、b的两页分别是:a(:,:,1)=b(:,:,1)=(0213)a(:,:,1)=b(:,:,1)=\be

2016-12-22 17:27:17 37923 4

原创 Pycharm 的python console 启动'PyDevTerminalInteractiveShell' object has no attribute 'has_readline'

python启动后报错AttributeError: 'PyDevTerminalInteractiveShell' object has no attribute 'has_readline'这个问题源于pycharm version>2016.1与ipython version 5冲突。 解决方法: 将文件pydev_ipython_console_011.py(提取密码:cbv8) 放入

2016-12-22 15:22:07 9059 4

转载 tf.get_variable 和tf.variable_scope

变量共享主要涉及到两个函数: tf.get_variable(<name>, <shape>, <initializer>) 和 tf.variable_scope(<scope_name>)。先来看第一个函数: tf.get_variable。tf.get_variable 和tf.Variable不同的一点是,前者拥有一个变量检查机制,会检测已经存在的变量是否设置为共享变量,如果已经存在的变量没

2016-12-20 21:46:10 13354

转载 OpenAI:generative-models blogs

Three approaches to generative models Most generative models have this basic setup, but differ in the details. Here are three popular examples of generative model approaches to give you a sense of the

2016-12-20 15:25:50 534

转载 KL散度

百度百科相对熵 在概率论或信息论中,KL散度( Kullback–Leibler divergence),又称相对熵(relative entropy),信息散度(information divergence),信息增益(information gain),是描述两个概率分布P和Q差异的一种方法。它是非对称的,这意味着D(P||Q) ≠ D(Q||P)。特别的,在信息论中,D(P||Q)表示当用概

2016-12-20 11:29:47 1268

转载 Pycharm注册方式

成功安装后: 1、将自己计算机时间调到2038年 2、点击申请30天试用 3、退出pycharm 4、将时间调整回来 OK!

2016-12-16 22:24:29 1097

原创 Virtual Box下Linux与本机win7共享文件夹

基本的操作,请参照VirtualBox内Linux系统怎样与Windows共享文件夹电脑软件百度经验但是!!需要重启虚拟机系统共享仍在。可以在/etc/fstab中添加一项BaiduShare /mnt/share vboxsf rw,gid=110,uid=1100,auto 0 0不管用!改成在etc/rc.local中追加命令sudo gedit /etc/rc.localmount -

2016-12-15 22:02:51 376

转载 ubuntu14.04安装python scipy

参考文章ubuntu下安装python scipy安装出现的问题和文章中一模一样,并且按文章中的解决办法得到了解决。

2016-12-14 15:39:08 664

原创 ubuntu14.04+cuda8.0+cudnn5.1+caffe+tensorflow 安装教程(三)

-要想安装深度学习平台caffe与tensorflow,基础是装好操作系统,装好cuda,再开始装学习平台。教程分为3个部分: 1、ubuntu14.04+cuda8.0+cudnn5.1安装 2、caffe安装 3、tensorflow安装 以此文感谢所有在互联网上分享知识的人和交流群中为我答疑解惑的人。安装Tensorflow本文为tensorflow的pip安装,非源码安装。

2016-12-05 17:51:06 1263

原创 ubuntu14.04+cuda8.0+cudnn5.1+caffe+tensorflow 安装教程(二)

-要想安装深度学习平台caffe与tensorflow,基础是装好操作系统,装好cuda,再开始装学习平台。教程分为3个部分: 1、ubuntu14.04+cuda8.0+cudnn5.1安装 2、caffe安装 3、tensorflow安装 以此文感谢所有在互联网上分享知识的人和交流群中为我答疑解惑的人。Caffe安装参照官网说明 Caffe has several dependenc

2016-12-05 16:22:26 1719

原创 ubuntu14.04+cuda8.0+cudnn5.1+caffe+tensorflow 安装教程(一)

要想安装深度学习平台caffe与tensorflow,基础是装好操作系统,装好cuda,再开始装学习平台。教程分为3个部分: ubuntu14.04+cuda8.0+cudnn5.1安装caffe安装tensorflow安装本文虽然解释的不够详细,但是理清楚层次关系,按照文章中命令来,应该安装成功没有问题,检验多次了以此文感谢所有在互联网上分享知识的人和交流群中为我答疑解惑的人。ubuntu

2016-12-03 23:05:08 6844

转载 似然函数与最大似然估计

参考博客《似然函数Likelihood function》感谢作者分享。我的归纳:概率与似然性概率用于在已知一些参数的情况下,预测接下来的观测所得到的结果,而似然性则是用于在已知某些观测所得到的结果时,对有关事物性质的参数进行估计。似然函数是一种关于统计模型中参数的函数。例如,已知有事件A发生,运用似然函数,我们估计参数B的可能性。表明在已知观测结果情况下,似然函数的值越高,该参数值可使模型越合理。

2016-11-29 19:05:08 918

原创 生成模型与判别模型

判别式模型与生成式模型上面文章用表格形式很好总结了两种模型。我的理解李航《统计学习》书里,监督学习是学习一个模型,

2016-11-29 12:17:57 346

原创 Python小记(一)

1、numpy.histogram用法numpy.histogram(a,bins=10,range=None,normed=False,weights=None,density=None) return hist(array在各直方图中值的个数)和bin eages (每个直方图的边界)例:numpy.histogram([1, 2, 1], bins=2) 结果:(array([2,

2016-11-25 22:22:41 368

原创 Salient deconvolutional networks

Related work DeConvNets最初用于非监督学习【1】【2】,后被用于可视化【3】。文章【4】基于文章【5】,文章【5】是在先前hog,sift,BoVW或其他一些神经网络表达基础上。【6】学习第二个网络用于第一个网络的inverse。【7,8,9】利用cnn的特性,生成图像confuse them。本文与【10】的工作相似。 近期DeConvNets被用于语义图像分割 [1]

2016-11-08 20:04:09 638

原创 A Powerful Generative Model Using Random Weights

文章未看,和作者同学在mla会议上交流,大致意思,在Understanding Deep Image Representations by Inverting Them文章基础上,alex-model(vgg?)中的weight为随机值未经训练,得到的重构图甚至比使用训练的vgg中的weight更好。 用途:(Could we do deep visualization using untrain

2016-11-07 22:07:05 428

原创 我竟然博士了

2014年4月1日写的第一篇博客,没想着要读博,只为了更好的工作也有逃避的思想,稀里糊涂的上了硕士。 现在博士开学2个多月,3年硕士勤勤恳恳,让我找到了努力的方向,虽与大牛们相差甚远,但庆幸自己没有与当下世界的科技盛宴擦肩而过。 加油,小echo!

2016-11-07 21:49:58 634 2

原创 Understanding Deep Image Representations by Inverting Them

核心公式:This paper proposed an optimisation method to invertshallow and deep representations based on optimizing anobjective function with gradient descent. 核心:文章提出的是用基于梯度的方法优化一个目标函数来实现浅层和深层表

2016-11-01 21:33:41 4049 4

原创 感觉来到了一个新世界!

今天把导师要求的作业写完了,挺happy,纪念一下。从13年10月份来,开始根据导师要求的节奏进行学习。对于我这种大学四年混子型的选手,重新感受到了学习的魅力……看了人工神经网络基础这本书,就开始看UFLDL的教程,写编程作业。提一句,连matlab都没用过的我,第一个sparseautoencode作业写的那是欲仙欲死啊~过年2月中旬回来,导师说把剩下的几个作业(只做了一个剩7个)在

2014-04-01 21:25:51 578

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除