自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(37)
  • 资源 (17)
  • 收藏
  • 关注

原创 L32 DCGAN

Deep Convolutional Generative Adversarial Networkswe introduced the basic ideas behind how GANs work. We showed that they can draw samples from some simple, easy-to-sample distribution, like a unifor...

2020-02-21 14:39:54 332 1

原创 L31 生成对抗网络

Generative Adversarial NetworksThroughout most of this book, we have talked about how to make predictions. In some form or another, we used deep neural networks learned mappings from data points to l...

2020-02-21 14:37:42 414

原创 L30 图像分类案例2 Kaggle Dog Breed

Kaggle上的狗品种识别(ImageNet Dogs)在本节中,我们将解决Kaggle竞赛中的犬种识别挑战,比赛的网址是https://www.kaggle.com/c/dog-breed-identification 在这项比赛中,我们尝试确定120种不同的狗。该比赛中使用的数据集实际上是著名的ImageNet数据集的子集。# 在本节notebook中,使用后续设置的参数在完整训练集上训练...

2020-02-21 14:10:18 1324 1

原创 L29 图像分类案例1Kaggle CIFAR-10 图像分类竞赛

Kaggle上的图像分类(CIFAR-10)现在,我们将运用在前面几节中学到的知识来参加Kaggle竞赛,该竞赛解决了CIFAR-10图像分类问题。比赛网址是https://www.kaggle.com/c/cifar-10# 本节的网络需要较长的训练时间# 可以在Kaggle访问:# https://www.kaggle.com/boyuai/boyu-d2l-image-classif...

2020-02-21 14:01:11 1060

原创 L28 图像风格迁移

样式迁移如果你是一位摄影爱好者,也许接触过滤镜。它能改变照片的颜色样式,从而使风景照更加锐利或者令人像更加美白。但一个滤镜通常只能改变照片的某个方面。如果要照片达到理想中的样式,经常需要尝试大量不同的组合,其复杂程度不亚于模型调参。在本节中,我们将介绍如何使用卷积神经网络自动将某图像中的样式应用在另一图像之上,即样式迁移(style transfer)[1]。这里我们需要两张输入图像,一张是内...

2020-02-21 13:56:59 436 1

原创 L27 目标检测基础

目标检测和边界框%matplotlib inlinefrom PIL import Imageimport syssys.path.append('/home/kesci/input/')import d2lzh1981 as d2l# 展示用于目标检测的图d2l.set_figsize()img = Image.open('/home/kesci/input/img2083/...

2020-02-21 13:54:32 775

原创 GIT cheetsheet

GIT cheetsheet

2020-02-20 11:58:23 221

原创 E0- NNCU MCU开发工具相关概念

CMSISARM Cortex™ 微控制器软件接口标准(CMSIS:Cortex Microcontroller Software Interface Standard) 是 Cortex-M 处理器系列的与供应商无关的硬件抽象层(英文原文为:a vendor-independent hardware abstraction layer for the Cortex-M processor se...

2020-02-20 10:43:26 3296 1

原创 L26 使用卷积及循环神经网络进行文本分类

文本情感分类文本分类是自然语言处理的一个常见任务,它把一段不定长的文本序列变换为文本的类别。本节关注它的一个子问题:使用文本情感分类来分析文本作者的情绪。这个问题也叫情感分析,并有着广泛的应用。同搜索近义词和类比词一样,文本分类也属于词嵌入的下游应用。在本节中,我们将应用预训练的词向量和含多个隐藏层的双向循环神经网络与卷积神经网络,来判断一段不定长的文本序列中包含的是正面还是负面的情绪。后续内...

2020-02-18 10:16:30 808

原创 L25词嵌入进阶GloVe模型

词嵌入进阶在“Word2Vec的实现”一节中,我们在小规模数据集上训练了一个 Word2Vec 词嵌入模型,并通过词向量的余弦相似度搜索近义词。虽然 Word2Vec 已经能够成功地将离散的单词转换为连续的词向量,并能一定程度上地保存词与词之间的近似关系,但 Word2Vec 模型仍不是完美的,它还可以被进一步地改进:子词嵌入(subword embedding):FastText 以固定大...

2020-02-18 10:13:34 1031

原创 L24 word2vec

词嵌入基础我们在“循环神经网络的从零开始实现”一节中使用 one-hot 向量表示单词,虽然它们构造起来很容易,但通常并不是一个好选择。一个主要的原因是,one-hot 词向量无法准确表达不同词之间的相似度,如我们常常使用的余弦相似度。Word2Vec 词嵌入工具的提出正是为了解决上面这个问题,它将每个词表示成一个定长的向量,并通过在语料库上的预训练使得这些向量能较好地表达不同词之间的相似和类...

2020-02-18 10:07:11 436 2

原创 L23模型微调fine tuning

9.2 微调在前面的一些章节中,我们介绍了如何在只有6万张图像的Fashion-MNIST训练数据集上训练模型。我们还描述了学术界当下使用最广泛的大规模图像数据集ImageNet,它有超过1,000万的图像和1,000类的物体。然而,我们平常接触到数据集的规模通常在这两者之间。假设我们想从图像中识别出不同种类的椅子,然后将购买链接推荐给用户。一种可能的方法是先找出100种常见的椅子,为每种椅子...

2020-02-18 10:05:00 581

原创 L22 Data Augmentation数据增强

图像增广在5.6节(深度卷积神经网络)里我们提到过,大规模数据集是成功应用深度神经网络的前提。图像增广(image augmentation)技术通过对训练图像做一系列随机改变,来产生相似但又不同的训练样本,从而扩大训练数据集的规模。图像增广的另一种解释是,随机改变训练样本可以降低模型对某些属性的依赖,从而提高模型的泛化能力。例如,我们可以对图像进行不同方式的裁剪,使感兴趣的物体出现在不同位置,...

2020-02-18 10:02:24 372

原创 L21 Momentum RMSProp等优化方法

11.6 Momentum在 Section 11.4 中,我们提到,目标函数有关自变量的梯度代表了目标函数在自变量当前位置下降最快的方向。因此,梯度下降也叫作最陡下降(steepest descent)。在每次迭代中,梯度下降根据自变量当前位置,沿着当前位置的梯度更新自变量。然而,如果自变量的迭代方向仅仅取决于自变量当前位置,这可能会带来一些问题。对于noisy gradient,我们需要谨慎...

2020-02-18 09:59:06 535

原创 L20 梯度下降、随机梯度下降和小批量梯度下降

梯度下降(Boyd & Vandenberghe, 2004)%matplotlib inlineimport numpy as npimport torchimport timefrom torch import nn, optimimport mathimport syssys.path.append('/home/kesci/input')import d2lzh...

2020-02-18 09:50:07 301

原创 L19深度学习中的优化问题和凸性介绍

优化与深度学习优化与估计尽管优化方法可以最小化深度学习中的损失函数值,但本质上优化方法达到的目标与深度学习的目标并不相同。优化方法目标:训练集损失函数值深度学习目标:测试集损失函数值(泛化性)%matplotlib inlineimport syssys.path.append('/home/kesci/input')import d2lzh1981 as d2lfrom m...

2020-02-18 09:46:51 610

原创 L18 批量归一化和残差网络

批量归一化(BatchNormalization)对输入的标准化(浅层模型)处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。标准化处理输入数据使各个特征的分布相近批量归一化(深度模型)利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。1.对全连接层做批量归一化位置:全连接层中的仿射变换和激活函数之间。全连接:x=...

2020-02-18 09:43:02 317

原创 L17 AlexNet VGG NiN GoogLeNet

深度卷积神经网络(AlexNet)LeNet: 在大的真实数据集上的表现并不尽如⼈意。1.神经网络计算复杂。2.还没有⼤量深⼊研究参数初始化和⾮凸优化算法等诸多领域。机器学习的特征提取:手工定义的特征提取函数神经网络的特征提取:通过学习得到数据的多级表征,并逐级表⽰越来越抽象的概念或模式。神经网络发展的限制:数据、硬件AlexNet首次证明了学习到的特征可以超越⼿⼯设计的特征,从...

2020-02-18 09:40:31 304

原创 L16 LeNet

course contentlenet 模型介绍lenet 网络搭建运用lenet进行图像识别-fashion-mnist数据集Convolutional Neural Networks使用全连接层的局限性:图像在同一列邻近的像素在这个向量中可能相距较远。它们构成的模式可能难以被模型识别。对于大尺寸的输入图像,使用全连接层容易导致模型过大。使用卷积层的优势:卷积层保留输...

2020-02-18 09:34:02 265

原创 L15卷积神经网络基础

卷积神经网络基础本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。二维卷积层本节介绍的是最常见的二维卷积层,常用于处理图像数据。二维互相关运算二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通...

2020-02-18 09:26:36 306

原创 L14梯度消失、梯度爆炸

梯度消失、梯度爆炸以及Kaggle房价预测梯度消失和梯度爆炸考虑到环境因素的其他问题Kaggle房价预测梯度消失和梯度爆炸深度模型有关数值稳定性的典型问题是消失(vanishing)和爆炸(explosion)。当神经网络的层数较多时,模型的数值稳定性容易变差。假设一个层数为LLL的多层感知机的第lll层H(l)\boldsymbol{H}^{(l)}H(l)的权重参数为W(l)...

2020-02-18 09:24:00 320

原创 L13过拟合欠拟合及其解决方案

过拟合、欠拟合及其解决方案过拟合、欠拟合的概念权重衰减丢弃法模型选择、过拟合和欠拟合训练误差和泛化误差在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛...

2020-02-18 09:10:39 273

原创 pytorch cheatsheet

2020-02-15 20:25:33 540

原创 L1-L11 jupter notebook 文件

L1-L11 jupter notebook 文件下载地址https://download.csdn.net/download/xiuyu1860/12157961包括L12 Transformer.L11注意力机制和Seq2seq模型L10机器翻译L9循环神经网络进阶 L8梯度消失、梯度爆炸L7过拟合欠拟合及其解决方案L6循环神经网络L5语言模型与数据集L4文本预处理L3Softmax与分类...

2020-02-15 15:43:26 241

原创 L0 torch 构建网络初步

L0 pytorch 构建简单网络本文是是L0, 把pytorch构建感知器的程序,仔细剖析理解import torchfrom torch import nntorch.__version__'1.3.0'STEP 1 手工定义全连接层Linear#torch.nn是专门为深度学习设计的模块。torch.nn的核心数据结构是Module#它是一个抽象的概念,#既可以表示神经...

2020-02-15 14:43:43 362

原创 L12 Transformer

Transformer在之前的章节中,我们已经介绍了主流的神经网络架构如卷积神经网络(CNNs)和循环神经网络(RNNs)。让我们进行一些回顾:CNNs 易于并行化,却不适合捕捉变长序列内的依赖关系。RNNs 适合捕捉长距离变长序列的依赖,但是却难以实现并行化处理序列。为了整合CNN和RNN的优势,[Vaswani et al., 2017] 创新性地使用注意力机制设计了Transfo...

2020-02-14 16:30:04 371

原创 L11注意力机制和Seq2seq模型

注意力机制在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context vector)来获取输⼊序列信息。当编码器为循环神经⽹络时,背景变量来⾃它最终时间步的隐藏状态。将源序列输入信息以循环单位状态编码,然后将其传递给解码器以生成目标序列。然而这种结构存在着问题,尤其是RNN机制实际中存在长程梯度消失的问题,对于较长的句子,我们很难寄希望于将输入的序列转化为...

2020-02-14 16:18:50 1445

原创 L10机器翻译

机器翻译和数据集机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。import osos.listdir('/home/kesci/input/')['fraeng6506', 'd2l9528', 'd2l6239']import sys...

2020-02-14 16:07:20 478

原创 L9循环神经网络进阶 ModernRNN

GRURNN存在的问题:梯度较容易出现衰减或爆炸(BPTT)⻔控循环神经⽹络:捕捉时间序列中时间步距离较⼤的依赖关系RNN:Ht=ϕ(XtWxh+Ht−1Whh+bh)H_{t} = ϕ(X_{t}W_{xh} + H_{t-1}W_{hh} + b_{h})Ht​=ϕ(Xt​Wxh​+Ht−1​Whh​+bh​)GRU:Rt=σ(XtWxr+Ht−1Whr+br)Zt=σ(X...

2020-02-14 15:59:32 571

原创 L8梯度消失、梯度爆炸

梯度消失、梯度爆炸以及Kaggle房价预测梯度消失和梯度爆炸考虑到环境因素的其他问题Kaggle房价预测梯度消失和梯度爆炸深度模型有关数值稳定性的典型问题是消失(vanishing)和爆炸(explosion)。当神经网络的层数较多时,模型的数值稳定性容易变差。假设一个层数为LLL的多层感知机的第lll层H(l)\boldsymbol{H}^{(l)}H(l)的权重参数为W(l)...

2020-02-14 15:47:29 399

原创 L7过拟合欠拟合及其解决方案

过拟合、欠拟合及其解决方案过拟合、欠拟合的概念权重衰减丢弃法模型选择、过拟合和欠拟合训练误差和泛化误差在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛...

2020-02-14 15:31:55 1023

原创 L6循环神经网络

循环神经网络本节介绍循环神经网络,下图展示了如何基于循环神经网络实现语言模型。我们的目的是基于当前的输入与过去的输入序列,预测序列的下一个字符。循环神经网络引入一个隐藏变量HHH,用HtH_{t}Ht​表示HHH在时间步ttt的值。HtH_{t}Ht​的计算基于XtX_{t}Xt​和Ht−1H_{t-1}Ht−1​,可以认为HtH_{t}Ht​记录了到当前字符为止的序列信息,利用HtH_{t}H...

2020-02-14 14:31:06 362

原创 L5语言模型与数据集

语言模型一段自然语言文本可以看作是一个离散时间序列,给定一个长度为TTT的词的序列w1,w2,…,wTw_1, w_2, \ldots, w_Tw1​,w2​,…,wT​,语言模型的目标就是评估该序列是否合理,即计算该序列的概率:P(w1,w2,…,wT).P(w_1, w_2, \ldots, w_T).P(w1​,w2​,…,wT​).本节我们介绍基于统计的语言模型,主要是nnn元语...

2020-02-14 14:27:59 330

原创 L4文本预处理

文本预处理文本是一类序列数据,一篇文章可以看作是字符或单词的序列,本节将介绍文本数据的常见预处理步骤,预处理通常包括四个步骤:读入文本分词建立字典,将每个词映射到一个唯一的索引(index)将文本从词的序列转换为索引的序列,方便输入模型读入文本我们用一部英文小说,即H. G. Well的Time Machine,作为示例,展示文本预处理的具体过程。import collecti...

2020-02-14 14:24:37 279

原创 L2 Softmax与分类模型

softmax和分类模型内容包含:softmax回归的基本概念如何获取Fashion-MNIST数据集和读取数据softmax回归模型的从零开始实现,实现一个对Fashion-MNIST训练集中的图像数据进行分类的模型使用pytorch重新实现softmax回归模型softmax的基本概念分类问题一个简单的图像分类问题,输入图像的高和宽均为2像素,色彩为灰度。图像中的4像...

2020-02-14 12:01:37 366

原创 L3 多层感知机

多层感知机多层感知机的基本知识使用多层感知机图像分类的从零开始的实现使用pytorch的简洁实现多层感知机的基本知识深度学习主要关注多层模型。在这里,我们将以多层感知机(multilayer perceptron,MLP)为例,介绍多层神经网络的概念。隐藏层下图展示了一个多层感知机的神经网络图,它含有一个隐藏层,该层中有5个隐藏单元。表达公式具体来说,给定一个小批量样本X∈...

2020-02-14 11:42:49 363

原创 L1线性回归

线性回归主要内容包括:线性回归的基本要素线性回归模型从零开始的实现线性回归模型使用pytorch的简洁实现线性回归的基本要素模型为了简单起见,这里我们假设价格只取决于房屋状况的两个因素,即面积(平方米)和房龄(年)。接下来我们希望探索价格与这两个因素的具体关系。线性回归假设输出与各个输入之间是线性关系:price=warea⋅area+wage⋅age+b\mathrm{pr...

2020-02-14 11:39:24 904

L1-L12.rar

2020 年参加伯禹教育pytorch培训资料 包括L12 Transformer.L11注意力机制和Seq2seq模型L10机器翻译L9循环神经网络进阶 L8梯度消失、梯度爆炸L7过拟合欠拟合及其解决方案L6循环神经网络L5语言模型与数据集L4文本预处理L3Softmax与分类模型L2多层感知机L1 线性回归 博文https://blog.csdn.net/xiuyu1860L1到L11所有jupyter noteobok 文件下载

2020-02-15

L1pytorch 线性回归.rar

文对应的jupyter notebook文件, 解说如何采用pytorch解决线性回归问题。 https://blog.csdn.net/xiuyu1860/article/details/104309108https://blog.csdn.net/xiuyu1860/article/details/104309108

2020-02-14

L8梯度消失、梯度爆炸.ipynb

2020 年参加伯禹教育pytorch培训资料-L8梯度消失、梯度爆炸 jupyter notebook源文件 介绍梯度消失和梯度爆炸的基本概念 介绍影响模型效果的其他因素影响:协变量偏移,标签偏移,概念偏移 介绍Kaggle房价预测的实现流程

2020-02-14

L7过拟合欠拟合及其解决方案.ipynb

2020 年参加伯禹教育pytorch培训-过拟合欠拟合及其解决方案知识单元 、 此为jupyter notebook格式源文件 文章见:https://blog.csdn.net/xiuyu1860/article/details/104313139

2020-02-14

2020 年参加伯禹教育pytorch培训-Softmax与分类模型

内容见:https://blog.csdn.net/xiuyu1860/article/details/104309548 此处为jupyter notebook的源文件

2020-02-14

Python项目开发实战+第2版.pdf

日本BePROUD 根据项目开发经验,介绍了基于python 的Web应用的开发方法、项目管理及审查、测试与高效部署、服务器调试等内容。总结了Python项目开发流程中的方方面面,有助于开发者建立有序生产环境,提高开发效率,让编程事半功倍。

2019-07-24

2018 上半年下半年软件设计师考试所有真题和参考答案

2018 上半年下半年软件设计师考试所有真题和参考答案

2019-03-17

实用软件工程文档汇编.

《立项建议书》编写参考指南 《软件开发计划书》编写参考指南 《用户需求报告》编写参考指南 ,....

2010-03-29

DM6446 实验讲义

DM6446,达芬奇图像采集处理 开发 实验讲义

2010-01-09

Davinci Dsp最新技术与开发工具介绍

Davinci Dsp最新技术与开发工具介绍

2009-12-28

Biosignal and biomedical image processing matlab based application

JONH L,SEMMLOW 英文原版图书 医学图像处理 matlab实现

2009-11-28

基于UML在线图书管理系统

基于UML在线图书管理系统全部开发文档 开发计划 需求规约 数据库 设计规约 测试规约

2009-05-16

SUN宠物商店系统参考资料

包括 3个文件: 宠物商店系统参考资料 宠物商店数据模型分析 Sun的宠物商店例子的首页如下图。这个屏幕允许用户浏览大类,登录,维护帐户信息(如果用户已经登录),改变语言设置。语言切换是通过一个美国,日文国旗图标链接实现的。。

2009-05-15

C语言的课程设计案例

C语言的课程设计案例 案例一 贪吃蛇游戏 案例二 计算器 案例三 黑白棋游戏 案例四 迷宫问题 案例五 扫地雷游戏 案例六 速算24 案例七 数据结构CAI系统 案例八 进程调度 案例九 存储管理分区分配算法 案例十 通讯录 案例十一 学生成绩管理 案例十二 工资管理 案例十三 图书借阅管理 案例十四 教师工作量计算

2009-05-15

浙江大学高济 人工智能讲义 全

浙江大学高济 人工智能讲义 全课程分三个部分:绪论,基础篇,提高篇。绪论即第一章,阐述 人工智能研究的发展和基本原则。基础篇由五章构成,第二、三章介绍 人工智能的基本概念、方法和技术,包括搜索、归约和逻辑推理等问题 求解的基本方法以及知识表示的理论和方法;第四、五、六章讨论人工 智能技术的主要应用,包括基于知识的系统,自动规划和配置,以及机 器学习和知识发现。提高篇由七、八、九三章组成,旨在拓广人工智能 的研究和应用,包括非单调推理、不确定推理、模糊推理、神经网络等 新型问题求解技术,自然语言理解技术,以及Agent 技术和信息基础的 智能化。

2009-04-18

C语言课程设计案例.

案例一 贪吃蛇游戏 案例二 计算器 案例三 黑白棋游戏 案例四 迷宫问题 案例五 扫地雷游戏 案例六 速算24 案例七 数据结构CAI系统 案例八 进程调度 案例九 存储管理分区分配算法 案例十 通讯录 案例十一 学生成绩管理 案例十二 工资管理 案例十三 图书借阅管理 案例十四 教师工作量计算

2009-02-08

Uml Visual C With Mfc.

如何使用Visual C++ 和UML建模!

2007-06-09

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除