自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(16)
  • 收藏
  • 关注

原创 Floating point exception (core dumped),pytorch——报错记录

Floating point exception (core dumped)pytorch图片预处理时报错Floating point exception (core dumped)transform = transforms.Compose([transforms.Resize([224, 224]), transforms.ToTensor(), transforms.No

2020-11-11 18:58:16 3021

原创 解决pytorch中“cannot run ‘aten::slow_conv3d_forward’”问题记录

使用pytorch-gpu运行模型,数据为三维贝雷砂岩岩心。其中报错如图if torch.cuda.is_available(): data = data.cuda() data = data.type(torch.FloatTensor) target = target.cuda()其中将模型与data放入gpu代码做出如下更改,报错消失。if torch.cuda.is_available():

2020-07-02 18:38:58 4956 2

原创 动手学pytorch笔记整理12

conv-layer二维卷积层二维互相关运算特征图和感受野填充和步幅填充步幅二维卷积层卷积神经网络(convolutional neural network)是含有卷积层(convolutional layer)的神经网络。本章中介绍的卷积神经网络均使用最常见的二维卷积层。它有高和宽两个空间维度,常用来处理图像数据。本节中,我们将介绍简单形式的二维卷积层的工作原理。二维互相关运算虽然卷积层得名于卷积(convolution)运算,但我们通常在卷积层中使用更加直观的互相关(cross-correlat

2020-06-02 22:11:39 371

原创 动手学pytorch笔记整理11

parameters模型参数的访问、初始化和共享访问模型参数初始化模型参数自定义初始化方法共享模型参数小结模型参数的访问、初始化和共享之前我们通过init模块来初始化模型的参数。我们也介绍了访问模型参数的简单方法。本节将深入讲解如何访问和初始化模型参数,以及如何在多个层之间共享同一份模型参数。我们先定义一个与上一节中相同的含单隐藏层的多层感知机。我们依然使用默认方式初始化它的参数,并做一次前向计算。与之前不同的是,在这里我们从nn中导入了init模块,它包含了多种模型初始化方法。import tor

2020-05-31 21:42:38 230

原创 动手学pytorch笔记整理10

model-construction继承`Module`类来构造模型`Module`的子类`Sequential`类`ModuleList`类`ModuleDict`类构造复杂的模型小结继承Module类来构造模型Module类是nn模块里提供的一个模型构造类,是所有神经网络模块的基类,我们可以继承它来定义我们想要的模型。下面继承Module类构造多层感知机。这里定义的MLP类重载了Module类的__init__函数和forward函数。它们分别用于创建模型参数和定义前向计算。前向计算也即正向传播。

2020-05-31 00:25:30 243

原创 动手学pytorch笔记整理09

backprop正向传播、反向传播和计算图正向传播正向传播的计算图反向传播训练深度学习模型小结正向传播、反向传播和计算图前面几节里我们使用了小批量随机梯度下降的优化算法来训练模型。在实现中,我们只提供了模型的正向传播(forward propagation)的计算,即对输入计算模型输出,然后通过autograd模块来调用系统自动生成的backward函数计算梯度。基于反向传播(back-propagation)算法的自动求梯度极大简化了深度学习模型训练算法的实现。本节我们将使用数学和计算图(comput

2020-05-22 00:27:38 274

原创 解决import tensorflow导致jupyter内核死亡的记录

今日重装gpu版tensorflow后出现问题,jupyter notebook中import tensorflow运行以后内核死亡。开始以为版本不兼容,于是将conda中全部内容升级了一遍发现还是存在问题,并不管用。于是去查报错信息。在我很少去看的jupyter的终端中得到一个warning。显示HDF5版本不匹配导致的错误。网上大致有两种解决方法:1.指定版本安装2.pip uninstall h5pypip install h5py我开始使用的第一种方法,用conda命令重装。发现

2020-05-21 23:45:04 3361 1

原创 动手学pytorch笔记整理08

underfit-overfit模型选择、欠拟合和过拟合训练误差和泛化误差模型选择验证数据集KKK折交叉验证欠拟合和过拟合模型复杂度训练数据集大小多项式函数拟合实验模型选择、欠拟合和过拟合在前几节基于Fashion-MNIST数据集的实验中,我们评价了机器学习模型在训练数据集和测试数据集上的表现。如果你改变过实验中的模型结构或者超参数,你也许发现了:当模型在训练数据集上更准确时,它在测试数据集上却不一定更准确。这是为什么呢?训练误差和泛化误差在解释上述现象之前,我们需要区分训练误差(training

2020-05-21 00:06:13 175

原创 动手学pytorch笔记整理07

MLP多层感知机隐藏层激活函数ReLU函数sigmoid函数tanh函数多层感知机小结多层感知机的简洁实现多层感知机深度学习主要关注多层模型。我们将以多层感知机(multilayer perceptron,MLP)为例,介绍多层神经网络的概念。隐藏层多层感知机在单层神经网络的基础上引入了一到多个隐藏层(hidden layer)。隐藏层位于输入层和输出层之间。下图展示了一个多层感知机的神经网络图,它含有一个隐藏层,该层中有5个隐藏单元。在图中所示的多层感知机中,输入和输出个数分别为4和3,中间的

2020-05-19 22:50:05 137

原创 动手学pytorch笔记整理06

softmax-regression;fashion-mnistsoftmax回归分类问题softmax回归模型单样本分类的矢量计算表达式小批量样本分类的矢量计算表达式交叉熵损失函数模型预测及评价小结图像分类数据集(Fashion-MNIST)获取数据集读取小批量小结softmax回归线性回归模型适用于输出为连续值的情景。在另一类情景中,模型输出可以是一个像图像类别这样的离散值。对于这样的离散值预测问题,我们可以使用诸如softmax回归在内的分类模型。和线性回归不同,softmax回归的输出单元从一个

2020-05-18 23:33:58 240

原创 动手学pytorch笔记整理05

linear-regression-pytorch线性回归的简洁实现生成数据集读取数据定义模型初始化模型参数定义损失函数定义优化算法训练模型小结线性回归的简洁实现随着深度学习框架的发展,开发深度学习应用变得越来越便利。实践中,我们通常可以用比上一节更简洁的代码来实现同样的模型。在本节中,我们将介绍如何使用PyTorch更方便地实现线性回归的训练。生成数据集我们生成与上一节中相同的数据集。其中features是训练数据特征,labels是标签。num_inputs = 2num_examples

2020-05-14 22:12:39 355

原创 动手学pytorch笔记整理04

linear-regression

2020-05-12 23:41:50 170

原创 动手学pytorch笔记整理03

linear-regression线性回归线性回归的基本要素模型定义模型训练(1) 训练数据(2) 损失函数(3) 优化算法模型预测线性回归的表示方法神经网络图矢量计算表达式小结线性回归线性回归输出是一个连续值,因此适用于回归问题。回归问题在实际中很常见,如预测房屋价格、气温、销售额等连续值的问题。与回归问题不同,分类问题中模型的最终输出是一个离散值。我们所说的图像分类、垃圾邮件识别、疾病检测等输出为离散值的问题都属于分类问题的范畴。softmax回归则适用于分类问题。由于线性回归和softmax回归都

2020-05-11 23:14:33 161

原创 动手学pytorch笔记整理02

autograd自动求梯度概念tensor梯度自动求梯度概念在深度学习中,我们经常需要对函数求梯度(gradient)。PyTorch提供的autograd包能够根据输入和前向传播过程自动构建计算图,并执行反向传播。其中Tensor是这个包的核心类,如果将其属性.requires_grad设置为True,它将开始追踪(track)在其上的所有操作(这样就可以利用链式法则进行梯度传播了)。完成计算后,可以调用.backward()来完成所有梯度计算。此Tensor的梯度将累积到.grad属性中。注意

2020-05-08 23:28:32 106

原创 动手学pytorch笔记整理01

动手学pytorch笔记整理01数据操作tensor各种操作加法操作索引Tensor on GPU数据操作在深度学习中,我们通常会频繁地对数据进行操作。在PyTorch中,torch.Tensor是存储和变换数据的主要工具。Tensor和NumPy的多维数组非常类似。然而,Tensor提供GPU计算和自动求梯度等更多功能,这些使Tensor更加适合深度学习。"tensor"这个单词一般可译...

2020-05-07 22:13:00 168

原创 解决torch.cuda.is_available()一直返回False的玄学方法之一

一直用的TensorFlow(keras)来完成一些工作,因许多论文中的模型用pytorch来实现,代码看不懂实在是不太应该。正好趁此假期,疫情原因无法出去浪,在家学一下pytorch。游戏用笔记本自带GeForce 1050显卡,可用GPU,想着不用白不用,先装一个GPU版本再说。但是我按照网上的所有方法,torch.cuda.is_available()总是返回False。有轻微强迫症的我,...

2020-02-03 18:46:48 23830 24

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除