自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 图像分类数据集

这两个数据加载器对象分别使用之前创建的数据集对象作为输入,batch_size表示每个批次的样本数量,shuffle=True表示在每个epoch开始时对数据进行洗牌,num_workers=get_dataloader_workers()表示使用之前定义的函数get_dataloader_workers返回的整数值作为读取数据的进程数。然后,使用enumerate函数遍历axes和imgs,其中i表示索引,ax表示当前的Axes对象,img表示当前的图像。如果不是,则直接使用ax.imshow函数显示。

2023-11-07 22:22:57 44

原创 3.3. 线性回归的简洁实现

nn模块是PyTorch提供的一个用于构建神经网络的高级API,它封装了一些常用的神经网络层和模型,使得构建和训练神经网络变得更加简单和方便。综合起来,这段代码实现了一个简单的训练循环,通过多轮的训练,使用随机梯度下降算法更新模型的参数,以最小化损失函数。`net(X)`表示将输入X传入神经网络模型进行前向传播得到预测值,`loss()`表示计算预测值和真实标签之间的损失。8. `l = loss(net(features), labels)`:计算整个训练数据集上的损失值,用于打印训练过程中的损失变化。

2023-10-23 17:07:21 56

原创 3.2线性神经网络

"""线性回归模型"""¶"""小批量随机梯度下降"""params:list,包含了w和b。1r:学习率batch_size,代表批次大小。with torch.no_grad():更新的时候不要进行梯度计算:使用小批量随机梯度下降更新参数。param.grad表示参数的梯度,lr表示学习率,batch_size表示批次大小。更新的公式为:参数 = 参数 - 学习率 * 梯度 / 批次大小。其中梯度会存在你的.gard里面:将参数的梯度清零。

2023-10-22 17:33:23 70 1

原创 2.6 概率

这将返回一个长度为6的一维张量,其中只有一个元素的值为1,其余元素的值为0。因为我们是从一个公平的骰子中生成的数据,我们知道每个结果都有真实的概率1/6, 大约是0.167,所以上面输出的估计值看起来不错。总之,这段代码计算了一个多项分布的估计概率,并使用matplotlib库将估计概率曲线进行可视化展示。从一个多项分布中进行10次随机抽样的过程,并返回了每个事件被抽中的次数。然后,我们使用一个循环来绘制每个事件的估计概率曲线。,其中每个元素的值都是1/6,表示每个事件发生的概率是相等的。

2023-10-20 10:24:50 88 1

原创 2.4微积分

这是一个Jupyter Notebook的魔法命令,它告诉Jupyter Notebook在输出结果中显示Matplotlib绘图的结果,并将这些图形嵌入到Notebook中。在这个例子中,函数计算了3 * x的平方减去4 * x的值,并将结果返回。:这是一个打印语句,它会将一些文本和变量的值打印到控制台。这段代码的作用是计算一个函数在不同步长下的数值极限值。这样,在后续的绘图操作中,如果没有显式指定图表大小,就会使用这个默认值。,并导入了一些常用的库和模块,以便在后续的代码中使用它们。

2023-10-18 19:50:35 344 3

原创 安装环境大集合

之后pip安装: pip install .\d2l-0.15.1-py3-none-any.whl。出现错误:于是把下载好的d2l放在给出的路径中,再次运行以上代码。来清除conda的缓存,然后再次尝试安装d2l。来更新conda版本,然后再次尝试安装d2l。来添加清华镜像源,然后再次尝试安装d2l。先学,出现问题再解决。中安装,推荐使用conda安装,然后使用清华镜像源:使用命令。更新conda:使用命令。

2023-10-18 16:11:35 41 1

原创 2.3. 线性代数

新张量的第一行与原始张量A的第一行相同,第二行是原始张量A的第一行和第二行的和,以此类推。元素的值类似于第x维上的前缀和。同样,给定具有相同形状的任意两个张量,任何按元素二元运算的结果都将是相同形状的张量。如果两个矩阵的维度不同, 且从后往前一直都满足特定情况, 那么对于维度小的矩阵会自动补全为另一个矩阵的维度。如果axis=1即对A的第二个维度也就是5这个维度进行求和, 返回值就是一个大小为2x4的张量。将生成一个2行3列的新张量,其中第一行与A的第一行相同,第二行是A的第一行和第二行的和。

2023-10-18 14:20:57 66 1

原创 2.2数据的预处理

李沫学深度学习

2023-10-16 21:51:42 272 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除