自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

励志的小胡子

交流学习

  • 博客(104)
  • 收藏
  • 关注

原创 Pytorch系列:Pytorch的简单操作(三) ---- 张量的基础操作

一、张量的拼接与切分1. torch.cat(tensor, dim=0, out=None)功能: 将张量按维度dim进行拼接参数:tensors:张量序列dim:要拼接的维度>>> t = torch.ones((2, 3))>>> torch.cat([t, t], dim=0)tensor([[1., 1., 1.], ...

2019-12-17 16:03:37 1897

原创 Pytorch系列:Pytorch的简单操作(二) ---- 张量的创建

一、Tensor概念        张量是一个多维数组,它是标量、向量、矩阵的高维拓展。张量是三维及以上的数组。标量:是一个常数,为0维张量向量:是一行或者一列数组成,为1维张量矩阵:包含行和列两个维度。是2维张量。torch.Tensor包含的属性:dtype:张量的数据类型,如torch.Floa...

2019-12-17 16:01:11 4408

原创 Pytorch系列:Pytorch的简单操作(一) ---- Pytorch的优势机制

一、计算图与动态机制        计算图是一个表示运算的有向无环图。如果学过图论,应该对有向无环图这个概念很熟悉。一个有向无环图包含“结点”和“边”。TensorFlow和PyTorch都用到计算图。Pytorch中结点表示数据,如向量、矩阵、张量等。边表示运算,如加减乘除等。TensorFlow的数据流图中结点表...

2019-12-17 15:59:37 755

原创 Pytorch系列:写在前面的话。。。

        本博客的内容主要是作者在学习过程中做的一个笔记,如果有幸有人觉得还可以,我们可以一起交流学习。没有其他目的。一、Pytorch简介        PyTorch是最近一个很火的深度学习框架,可以与TensorFlow一较...

2019-12-16 10:42:34 243 1

原创 CNN模型之GoogLeNet(Inception) V3

一、介绍        2015年,谷歌团队提出Inception V3,新的网络有42层。主要的创新点是任意n×nn\times nn×n的卷积都可以分解为1×n1\times n1×n->n×1n\times 1n×1代替。这样可以增强表达能力,减小参数。二、网络结构三、总结 &nb...

2019-11-10 20:30:08 945

原创 CNN模型之GoogLeNet(Inception) v2

一、介绍         2015年谷歌团队提出了Inception V2,首次提出了批量(Batch Normalization)归一化方法,可以提高网络的收敛速度。应用范围广泛。主要的创新点包括:Batch Normalization:在神经网络的每层计算中,参数变化导致数据分布不一致,会产生数据的协方差偏移...

2019-11-10 11:34:05 548

原创 特征工程入门与实践----特征增强

        特征增强是对数据的进一步修改,我们开始清洗和增强数据。主要涉及的操作有识别数据中的缺失值删除有害数据输入缺失值对数据进行归一化/标准化1. 识别数据中的缺失值        特征增强的第一种方法是识别数据的缺...

2019-10-04 16:42:34 7510

原创 特征工程入门与实践----特征理解

        特征理解,简单说就是理解数据中都有什么,对数据的理解方便我们认清数据,从而对数据进行操作,构造有用的特征。我们将从以下几个方面来认清数据:结构化数据与非结构化数据定量数据与定性数据数据的4个等级探索性数据分析和数据可视化描述性统计1. 结构化数据和非结构化数据结构化(有组织)数据:分成...

2019-10-04 16:42:03 1101

原创 特征工程入门与实践----特征工程简介

        人工智能的发展,让我们将那些需要手动操作才能处理的问题,让计算机也可以解决。例如,自然语言处理、人脸识别和图片分类等。因此,我们需要借助机器学习的知识来构建一个AI系统,从用户那里读取到原始数据,让计算机来帮助我们达到识别的目的。为了解决某个问题,需要收集大量的数据,这些数据都是在实际的情况中自然形成的...

2019-10-04 16:41:10 1146

原创 CNN模型之GoogLeNet

一、介绍        GoogLeNet,2014年由Google团队的Christian Szegedy等人提出,为了向LeNet致敬,所以取名GoogLeNet。2014年的ILSVRC分类任务中力压VGGNet赢得了分类任务的冠军。又名Inception。这个网络主要的特点是提高了网络内部计算资源的利用。从网...

2019-09-26 15:07:10 1086

原创 CNN模型之VGGNet

一、介绍        VGGNet是于2014年由牛津大学计算机视觉组和DeepMind公司共同研究的。在2014年的ILSVRC比赛上获得了分类项目的第二名和定位项目的第一名。这个网络据说是基于NIN网络的思想。与比赛中的第一名GooLeNet从NIN开始向两个方向发展。VGGNet的理念是更深的网络性能更好。因...

2019-09-25 22:03:23 584

原创 CNN模型之NIN

一、介绍        NIN网络是由Min Lin等人在2014年提出的一个网络嵌套模型,使用微神经网络替换卷积神经网络中的卷积核。通过微神经网络来抽象感受野内的数据。称这种微神经网络结构为mplconv。这篇论文的创新之处主要体现在两个地方,分别是:使用微神经网络替换传统卷积神经网络的卷积核。使用全局平均池...

2019-09-25 16:47:24 1086

原创 CNN模型之ZFNet

一、介绍        ZFNet是Matthew D.Zeiler于2013年提出,并获得了13年ImageNet的冠军。2012年AlexNet问世,并在ImageNet竞赛中取得了优异的成绩,也证明了大的卷积网路的性能优异,但是我们并不知道为什么CNN性能好。因此,这篇论文介绍了一个可视化技术来了解隐藏层做了什...

2019-09-16 16:11:06 510

原创 CNN模型之AlexNet

一、介绍        AlexNet是Alex Krizhevsky等人2012年提出。这个模型具有重大的意义,将ImageNet ILSVRC-2010竞赛的120万张图片1000个类别。top-1错误率为37.5%,top-5错误率为17.0%。在2012年的比赛中,将top-5错误率降到了15.3%,相较于第...

2019-09-05 21:55:45 1045 1

原创 周志华《机器学习》读书笔记----第二章:模型评估与选择

        机器学习要做的工作可以这样理解:给定一些数据,在数据上训练模型,得到能解决我们实际问题的模型。在这个过程中,数据的处理,模型的选择,模型的评估都需要花费一些时间来处理。这节内容就是模型的选择与评估。一、经验误差与过拟合      &nbsp...

2019-09-05 20:13:26 538

原创 CNN模型之LeNet-5

一、介绍        卷积神经网络是当前深度学习领域比较火的研究方法。其应用主要是在计算机视觉上。例如,图像分类,目标检测,人脸识别等等。并且已经在这些领域取得了相当大的成就。本文主要介绍卷积神经网络的开篇之作:LeNet-5。LeNet-5由Y. LeCun 在1998年发表的文章《Gradient-Based ...

2019-08-26 20:30:12 760

原创 AI圣经《深度学习》读书笔记----第二章:线性代数

        线性代数是数学的一个分支,应用于科学和工程中。线性代数主要是面向连续数学,而非离散数学。掌握好线性代数对于学习机器学习算法是必要的,尤其是深度学习算法。因此,本章学习必要的线性代数知识。知识点一:标量、向量、矩阵和张量标量(scalar): 一个标量就是一个单独的数,不同于线性代数中研究的其他大...

2019-08-20 11:01:45 331

原创 AI圣经《深度学习》读书笔记----第一章:引言

        这本书从我开始学习深度学习时,就买了这本书。但是,因为自身知识储备不够,觉得这本书很难。多次想学习这本书,但是都失败了。距离本次学习,已经时隔一年。希望这次能将这本书看完,学习书中的知识。并通过博客的方式,记录自己学习的过程和对知识进行总结。一、介绍   &nbsp...

2019-08-15 21:38:31 623

原创 Pytorch学习之torch----数学操作(三)

1. torch.reciprocal(input, out=None)说明:返回一个新张量,包含输入input张量每个元素的倒数。参数:input(Tensor) -- 输入张量 out(Tensor, 可选) -- 输出张量>>> a = torch.randn(5)>>> atensor([ 0.6535, 1.3616, -1....

2019-07-17 09:43:28 9642

原创 Pytorch学习之torch----数学操作(二)

1. torch.floor(input, out=None)说明:床函数,返回一个新张量,包含输入input张量每个元素的floor,即不小于元素的最大整数。参数:input(Tensor) -- 输入张量 out(Tenosr, 可选) -- 输出张量>>> a = torch.randn(4)>>> torch.floor(a)ten...

2019-07-17 09:43:15 11226 2

原创 Pytorch学习之torch----比较操作(Comparison Ops)

1. torch.eq(input, other, out=None)说明: 比较元素是否相等,第二个参数可以是一个数,或者是第一个参数同类型形状的张量参数:input(Tensor) ---- 待比较张量other(Tenosr or float) ---- 比较张量或者数out(Tensor,可选的) ---- 输出张量返回值: 一个torch.ByteTensor张量,包含了...

2019-07-14 15:38:59 22907

原创 Pytorch学习之torch----Reduction Ops

1. torch.cumprod(input, dim, out=None)说明: 返回输入沿指定维度的累积积。如果输入是一个N元向量,则结果也是一个N元向量,第i个输出元素值为 yi=x1∗x2∗...∗xiy_{i} = x_{1} * x_{2} * ... * x_{i}yi​=x1​∗x2​∗...∗xi​参数:input(Tensor) ---- 输入张量dim(int) -...

2019-07-14 14:11:59 2549

原创 Pytorch学习之torch----数学操作(一)

1. torch.abs(input, out=None)说明:计算输入张量的每个元素绝对值参数:input(Tensor) -- 输入张量 out(可选) -- 输出>>> import torch>>> torch.abs(torch.FloatTensor([-1, -2, 3]))tensor([1., 2., 3.])2. t...

2019-07-13 21:35:20 10828 2

原创 Pytorch学习之torch----随机抽样、序列化、并行化

1. torch.manual_seed(seed)说明:设置生成随机数的种子,返回一个torch._C.Generator对象。使用随机数种子之后,生成的随机数是相同的。参数:seed(int or long) -- 种子>>> import torch>>> torch.manual_seed(1)<torch._C.Generat...

2019-07-12 22:09:03 11834

原创 Pytorch学习之torch----索引、切片、连接、变异操作

1. torch.cat(seq, dim=0, out=None)说明:在给定维度上对输入的张量序列seq进行连接操作参数:seq(Tensor的序列) -- 可以是相同类型的Tensor的任何Python序列 dim(int, 可选) -- 张量连接的维度,按dim维度连接张量 out(Tensor,可选) -- 输出参数>>> x = torch.ran...

2019-06-24 16:06:40 11532

原创 Pytorch学习之torch----创建操作

1. torch.eye(n, m=None, out=None)说明:创建一个2维张量,对角线数字为1, 其他位置为0。也就是一个单位矩阵。参数:n -- 行数, m -- 列数,如果为None,默认等于n, out -- 输出张量>>> import torch>>> torch.eye(3)tensor([[1., 0., 0.],...

2019-06-23 16:26:34 9204 1

原创 Git学习----Git个人仓库操作

本篇文章主要是GIt个人仓库的基本操作。1. 安装gitsudo apt-get install git2. 查看git的安装结果git3. 创建本地仓库首先在桌面上创建一个test文件夹,作为我们的项目文件。cd Desktop/test/git initls -a4. 配置个人信息git config user.name GYTgi...

2019-06-03 14:13:26 673

原创 Git学习----简单介绍

一、Git介绍Git的作者是Linux之父:Linus Benedict Torvalds 为了辅助Linux内核的开发而开发出来的。是目前世界上最先进的分布式版本控制系统。GIt是一个分布式管理代码。在服务器和客户端都有版本控制能力。都能进行代码的提交与合并等。Git会在根目录下创建一个.git隐藏文件夹,作为本地的代码仓库。它的操作流程为:Git服务器-->本地仓库-->客户端...

2019-06-03 09:01:14 148

原创 生成对抗网络(十)----------infoGAN

一、infoGAN介绍infoGAN采用的是无监督式学习的方式并尝试实现可解释特征。原始数据不包含任何标签信息,所有的特征都是通过网络以一种非监督的方式自动学习得到的。使用了信息论的原理,通过最大化输入噪声和观察值之间的互信息来对网络模型进行优化。inforGAN能够适应于各类复杂的数据集,可以同时实现离散特征和连续特征,较传统的GAN训练时间更短。infoGAN在输入端把随机输入分为两部...

2019-06-01 21:33:37 1847 1

原创 生成对抗网络(九)----------ACGAN

一、ACGAN的介绍使用有标签的数据集应用在生成对抗网络可以有效的增强现有的生成模型。形成了两种优化的思路。第一种是cGAN中使用了辅助的标签信息来增强原始GAN,对生成器和判别器均使用标签数据来训练。实现了生成模型具备特定条件数据的能力。同时也有研究表明,cGAN的生成图像质量比传统的方式更优,当标签信息更丰富的时候。效果也随之升高。第二种是SGAN从另一个方向利用辅助标签信息。利用...

2019-05-30 15:02:38 5975 5

原创 生成对抗网络(七)----------SGAN

一、SGAN介绍SGAN来源于这篇论文:《Semi-Supervised Learning with Generative Adversarial Networks》传统的机器学习分为监督式学习和无监督式学习。前者的数据是有标签的,后者的数据是无标签的。然而,在很多问题中,有标签的数据是非常少的,要想获得有标签的数据,需要人工标注等一些操作。而无标签的数据则比较容易获得。半监督学习就是要结...

2019-05-29 10:06:53 11081 2

原创 生成对抗网络(六)----------Image Denoising Using a Generative Adversarial Network(用GAN对图像去噪)

前言这是一篇关于使用GAN对图像降噪的论文,我翻译了论文,也看了代码,以下是github链接:GAN去噪。我看懂了论文,这确实是一篇很好的论文。使用当下最火的GAN对图像进行去噪。也是一个开创性的想法。文中的损失函数与以往的不同。但是其他思想与传统GAN都是类似的。读完论文之后,我下载了相关代码,但是在代码中我遇到了问题。想要训练模型,却没有跑起来。如果你将代码跑起来了。可以在下面留言。我们一...

2019-05-20 10:38:52 8622 5

原创 生成对抗网络(五)----------CGAN

一、CGAN的简单介绍我们先说一下传统机器学习中的监督学习,监督学习就是通过有标签数据集训练模型的一种机器学习方式。在分类问题上,神经网络的监督式学习可以达到比较理想的效果。我们把监督学习的想法用在生成模型上,我们想要的结果是模型根据网络的输入的标签生成对应的输出。传统的神经网络就可以做到这一点,如下图,将标签转化为向量输入到神经网络中,得到输出图像,并且让输出图像与真实图像越来越接近就可...

2019-05-18 10:52:50 2816

原创 生成对抗网络(四)-----------WGAN-GP

一、WGAN的分析从我们WGAN的实现结果来看,WGAN可以很好的生成图像。因此,我们来分析一下W距离和生成图像之间的关系。理论上距离越近,图像生成质量越高。就说明WGAN的效果很好。在WGAN的论文式样中对三种架构进行了实验。第一种是生成器采用普通的感知机。第二组是生成器采用标准的DCGAN。第三组是生成器和判别器都采用MLP。实验结果如下图:从第一和第二组实验中可以看出,随着W的距...

2019-05-16 21:43:09 6290 9

原创 生成对抗网络(三)----------WGAN

一、GAN存在的问题在这之前,我们实现了GAN以及DCGAN。从训练效果看。都能生成相应的数据,但是GAN的训练过程中会出现很多问题。主要是训练的不稳定。在理论上,我们是先把判别器训练好,再去训练生成器。但是当判别器训练的越好。生成器反而越难优化。接下来,我们先分析一下GAN的问题。真实数据的分布通常是一个低维度流形。流形是指数据虽然在高纬度空间里,但实际上并不具备高纬度特性,而是存在于一...

2019-05-15 21:34:11 1257

原创 生成对抗网络(二) ---------- DCGAN

一、DCGAN的介绍GAN是无监督学习的一种方法,其训练样本是不需要标签的。DCGAN是在GAN的基础上,在2015年的《Unsupervised Representation Leanrning with Deep Convolutions Generative Adversarial Network》论文中提出。将GAN的网络结构由MLP换成卷积神经网络。论文中验证了DCGAN的生成器和判...

2019-05-15 08:28:49 2827

翻译 Unsupervised Representation Learning With Deep Convolutional Generative Adversarial Networks(DCGAN)

Abstract(摘要)近年来,使用卷积网络(CNN)的监督学习已经在计算机视觉应用中得到了广泛的应用,相比之下,CNN的无监督学习受到的关注较少。在这项工作中,我们希望弥补CNNs在有监督学习和无监督学习方面的成功之间的差距。我们引入了一类称为深度卷积生成对抗网络(DCGAN)的CNN,它具有某种结构约束,并说明了他是一个有力的无监督候选方法。在各种图像数据集的训练中,我们展示了令人信服的证...

2019-05-14 16:47:35 2797

原创 生成对抗网络(一)----------原始GAN

前言这一系列的博客,主要记录一下关于GAN的学习。已经有很多有关GAN的博客了。并且写的都特别好。而我还有写的目的,只是想记录一下自己的学习过程,自己学到的知识。一、GAN的思想生成对抗网络是 Ian Goodfellow在2014年提出的一种新模型。最初,是为了通过神经网络来生成数据。因此,Ian被称为生成对抗网络之父。生成对抗网络由两部分组成,分别是生成器和判别器。在训练的过程中,...

2019-05-04 08:14:19 3797

翻译 Generative Adversarial Nets(生成式对抗网络)

Abstract(摘要)我们提出了一个通过对抗过程来评估生成模型的新框架,其中我们同时训练两个模型:捕获数据分布的生成模型G,以及评估样本来自训练数据而不是生成模型G的概率的判别模型D。G的训练过程是最大化D犯错误的概率。该框架对应于极大极小化双人游戏。在任意函数G和D的空间中,存在唯一的解决方案,其中G用来逼近训练数据分布并且达到和G相等,为1/2。在G和D由多层感知器定义的情况下,整个系统...

2019-04-29 14:24:50 1228 1

原创 keras学习笔记-----快速开始keras函数式API

Keras函数式API是定义复杂模型的方法,比如说多输出模型,有向无环图,或具有共享层的模型。当然在使用函数式API的时候,要对顺序模型有一定的了解,我们可以通过一些例子来学习函数式API的使用。一、全连接网络我们使用函数式API来实现一个全连接网络。在定义网络时,网络层的示例是可调用的,它以张量为参数,并且会返回一个张量,输入和输出都是张量,然后用来定义一个Model模型。下面我们通过这...

2019-04-17 15:41:58 992 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除