自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(19)
  • 收藏
  • 关注

原创 论文《Prototype-based Embedding Network for Scene Graph Generation》的组会分享

2023-07-23 12:34:51 228

原创 一文了解L1正则化与L2正则化

其中,L(w)是加了L2正则化的损失函数,Loss(y, y_pred)是模型的原始损失函数(例如,均方误差或交叉熵),w是模型的权重向量,||w||^2是权重向量的L2范数的平方,λ是正则化参数,用于控制正则化的强度。其中,L(w)是加了L1正则化的损失函数,Loss(y, y_pred)是模型的原始损失函数(例如,均方误差或交叉熵),w是模型的权重向量,||w||1是权重向量的L1范数,λ是正则化参数,用于控制正则化的强度。正则化参数λ越大,正则化项在损失函数中的比重就越大,对权重的惩罚也就越大。

2023-05-20 00:17:42 6286

原创 torch.cat()函数

tips:按照行或者列拼接的时候,必须相互对应,不能大小不同。1.dim=0,代表从通道上拼接各个tensor。2.dim=1,代表从行上拼接各个tensor。2.dim=1,代表从列上拼接各个tensor。3.dim=2,代表从行上拼接各个tensor。1.dim=0,代表从列上拼接各个tensor。

2022-10-21 14:43:01 615

原创 nn.Module与nn.functional

由于两者性能差异不大,所以具体使用取决于个人喜好。对于激活函数和池化层,由于没有可学习参数,一般使用nn.functional完成,其他的有学习参数的部分则使用类。但是Droupout由于在训练和测试时操作不同,所以建议使用nn.Module实现,它能够通过model.eval加以区分。

2022-10-21 13:53:37 360

原创 torch.max()、torch.argmax()、torch.softmax()、torch.sum()联系与区别---个人简单总结

对于使用dim时,以二维tensor为基准:若是二维,则dim=0表示对每列进行处理,dim=1表示对每行进行处理;类比若是三维,dim=0表示channels,dim=1表示对每列进行处理,dim=2表示对每行进行处理;类比若是一维,则dim=0表示对这一维进行处理。由此可以看出:dim=?表示什么随着被处理的tensor的维度进行动态伸缩调整。

2022-10-19 13:30:00 673

原创 torch.max()

(input) → TensorReturns the maximum value of all elements in the tensor.This function produces deterministic (sub)gradients unlike Parametersinput (Tensor) – the input tensor.Example:>>> a = torch.randn(1, 3)>>> atensor([[ 0.6763, 0.7

2022-10-19 11:13:58 162

原创 torch.argmax()函数

参数: * input (Tensor) – 输入的Tensor矩阵。

2022-10-19 02:16:33 583

原创 torch.sum()函数

keepdim:求和之后这个dim的元素个数为1,所以要被去掉,如果要保留这个维度,则应当keepdim=True。torch.sum()对输入的tensor数据的某一维度求和,一共两种用法。dim:要求和的维度,可以是一个列表。input:输入一个tensor。

2022-10-19 02:11:18 2188

转载 torch.softmax()

是三维tensor的推广,其实三维tensor也可以是batchsize=1的四维tensor,只是dim的索引需要加1.:先随机生成一个(2,2,5,4)矩阵。其实随着dim增加(从0到3),相当于一层层剥开。:先随机生成一个(2,5,4)的矩阵,即两个维度的(5,4)矩阵。)对应位置(相同BHW)求softmax。)对应位置(相同BCW)求Softmax。)对应元素(相同BCH)求softmax。对应位置(相同CHW)求softmax。继续向里剥,也是最后一次。这时向里剥,每小块(继续向里剥,每小块(

2022-10-18 18:03:04 12037 1

原创 Pytorch保存torch.save()和加载torch.load()模型参数

对应第一种保存方式,加载模型时通过torch.load('.pth')直接初始化新的神经网络对象;对应第二种保存方式,需要首先导入对应的网络,再通过net.load_state_dict(torch.load('.pth'))完成模型参数的加载。当我们花费大量的精力训练完网络,下次预测数据时不想再(有时也不必再)训练一次时,这时候torch.save(),torch.load()就要登场了。其中:net.state_dict()获取各层参数,path是文件存放路径(通常保存文件格式为.pt或.pth)

2022-10-15 21:37:30 4751

原创 python print(%)用法

round()函数只有一个参数,不指定位数的时候,返回一个整数,而且是最靠近的整数,类似于四舍五入,当指定取舍的小数点位数的时候,一般情况也是使用四舍五入的规则,但是碰到.5的情况时,如果要取舍的位数前的小数是奇数,则直接舍弃,如果是偶数则向上取舍。相对基本格式化输出采用‘%’的方法,format()功能更强大,该函数把字符串当成一个模板,通过传入的参数进行格式化,并且使用大括号‘{}’作为特殊字符代替‘%’%g ——在保证六位有效数字的前提下,使用小数方式,否则使用科学计数法。%.3f,保留3位小数位。

2022-10-15 20:30:41 11950

原创 tqdm进度条常用方法

Tqdm 是一个快速,可扩展的Python进度条,可以在 Python 长循环中添加一个进度提示信息,用户只需要封装任意的迭代器 tqdm(iterator)。trange(i) 是 tqdm(range(i)) 的简单写法。tqdm(list)方法可以传入任意一种list,比如数组。在for循环外部初始化tqdm,可以打印其他信息。使用方法二: trange。使用pip就可以安装。使用方法一: tqdm。或者string的数组。使用方法三: 手动方法。

2022-10-15 13:41:24 204

原创 torch.utils.data.DataLoader

torch.utils.data.DataLoader,此数据加载器结合了数据集和取样器、迭代器,__len__(),并且可以提供多个线程处理数据集。用来把训练数据分成多个小组,此函数每次抛出一组数据。直至把所有的数据都抛出。就是做一个数据的初始化。作用:主要是对数据进行 batch 的划分,可以快速的迭代数据。用于生成迭代数据非常方便。

2022-10-15 11:12:49 373

原创 python之with open as f文件操作

【代码】python之with open as f文件操作。

2022-10-15 00:50:57 691

原创 torchvision.datasets.folder.ImageFolder函数

返回从所有文件夹中得到的图片的路径以及其类别,一个列表,列表中的每个元素都是一个(这里不是一个具体的函数去操作哦,而是imagefolder的成员变量。根据分的文件夹的名字来确定的类别,如['cat', 'dog']。') #这里是在dog和cat之上的dogcat_2文件夹。# cat文件夹的图片对应label 0,dog对应1。# 所有图片的路径和对应的label。给定路径后如何读取图片,默认读取为。应当按照指定的格式进行存储。按顺序为这些类别定义索引为。是一个通用的数据加载器,指定的路径下寻找图片。

2022-10-14 21:17:25 802 1

转载 python输出到txt文件

print("指纹", n, "相似指纹是", nums_grade_using[index_count_u], file=file1)设置在with open模块的参数名(此处我设置的是file1)所以这样的效果就是输出的n也会被传入txt。上面这串代码就是实现输出到txt的方法。我这里是用的相对路径--单引号。这个就是输出到代码文件夹下的。用的时候只要把需要输出的语句。

2022-10-14 16:53:53 11342

转载 Python format()函数——学习笔记

format函数最常用的函数

2022-10-14 16:13:42 419

原创 pytorch---view()函数

pytorch-view()函数

2022-10-13 01:16:25 413 1

原创 torch.flatten()函数

torch.flatten()函数讲解-个人总结

2022-10-13 01:03:29 10544 1

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除