自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 Pytorch怎么同时让两个dataloader打乱的顺序是相同

思路:将两个数据集按照对应顺序写成一个数据集,然后再用dataloader取出代码:from torch.utils.data import Datasetfrom torch.utils.data import DataLoader`class MyDataset_v1(Dataset):def init(self):self.data = [1, 2, 3, 4]def __len__(self): return len(self.data)def __getitem__(se

2021-01-27 13:20:18 2277

原创 DeepLearning-深度学习中特征融合方式

这里写自定义目录标题从多源信息融合谈起,其主要是数据层、特征层和决策层,数据层融合计算开销大,但是不损失信息,另外两类都是在数据分析之后,损失了部分信息,但是操作性较高。在深度学习任务中,海量的结构化数据使得从数据层融合比较困难,另外,很多网络的connection(ResNet, DenseNet, Transformer等)设计也融合了单源信息的多尺度特征。基于这两点,深度学习任务(CV,NLP为代表)主要在深度特征信息层进行融合。主要分类:Point-wise addition / Eleme

2021-02-01 23:04:03 5871

原创 Pytorch-F函数(torch.nn.functional)和nn(torch.nn)的区别

torch.nn函数的实现去调用torch.nn.functional,实现方式是一致的。它们的区别是:nn函数可以写在深度学习模型的初始化中,F函数不可以,因为其需要输入实际的input例如nn.ReLu和F.relu

2021-01-30 00:57:06 3258 1

原创 Pytorch-巧用nn.Sequential包装你的深度学习结构

思路:自定义简单的tensor,将设计的深度学习的层包装到nn.Sequential中代码:import torchfrom torch import optim, nnimport torch.nn.functional as Fx = torch.Tensor([1, 2, 3, 4, 5]).reshape(1, 1, 5)padding_layer = torch.nn.ReflectionPad1dnet1 = nn.Sequential( padding_layer((1

2021-01-29 15:27:45 318

原创 Python-map+lamda使你的效率翻倍

思路:map函数使一个或者多个序列经过lamda函数映射成新的序列代码;y = list(map(lambda x: pow(x, 2), range(5)))print(y)运行结果:[0, 1, 4, 9, 16]

2021-01-28 16:42:18 306

原创 Pytorch-怎么让两个dataloader打乱顺序相同,自定义一个sampler

思路:自定义一个sampler,将采样方式传进不同的dataloader,则取出的数据一致代码:import torchfrom torch import nnfrom torch.utils.data import Datasetfrom torch.utils.data import DataLoaderclass MyDataset_v1(Dataset): def __init__(self): self.data = [1, 2, 3, 4] de

2021-01-27 14:43:45 1301 4

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除