自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(20)
  • 收藏
  • 关注

原创 Feature Map的高方差和低方差的区别和影响

Feature Map的高方差和低方差的区别和影响

2023-11-12 11:15:43 186 1

原创 HOW DO VISION TRANSFORMERS WORK 总结

HOW DO VISION TRANSFORMERS WORK 总结

2023-11-12 11:13:40 115 1

原创 数据集中训练集、验证集、测试集的比例划分

吴恩达老师的视频中,如果当数据量不是很大的时候(万级别以下)的时候将训练集、验证集以及测试集划分为6:2:2;若是数据很大,可以将训练集、验证集、测试集比例调整为98:1:1;但是当可用的数据很少的情况下也可以使用一些高级的方法,比如留出方,K折交叉验证等。

2023-10-12 21:00:04 1200 2

原创 小样本检测训练过程-以Meta-Detr为例

小样本检测训练过程-以Meta-Detr为例

2023-09-17 14:16:25 307 1

原创 将voc格式数据集按原划分比例转为coco数据集

【代码】将voc格式数据集按原划分比例转为coco数据集。(包括注释和图片)

2023-04-25 13:15:11 149

原创 深度学习中训练集需要数据增强,验证集和测试集不需要做数据增强

3、首先要明白做数据增强的意义,是为了利用现有训练集的数据,通过增强变换获得更丰富的信息,从而在测试集(验证机)上获得更好的泛化能力;2、比例指的是对原始数据划分的比例,不考虑增强后的。

2023-04-11 20:30:36 3534 10

原创 目标检测中的上下文信息分析

上下文特征可分为三种类型:a.局部像素上下文:对象周围的斑块或像素,如边缘、颜色、纹理等。局部像素上下文可以通过增加对象检测网络中检测窗口的大小来捕获。b.语义上下文:对象在某些周围场景中被识别的概率,如事件、活动或场景类别。c.空间上下文:图像中其他对象的空间位置,例如。相对于图像中的其他对象,在某些位置找到对象的可能性。例如,在人脸检测系统中,受试者的肩膀和脖子总是靠近他们的脸。语义上下文通常通过从图像中提取更深的特征来添加,例如在反褶积层或递归神经网络(RNN)中。

2023-03-14 13:25:10 1185

原创 目标检测模型在COCO上的表现

目标检测模型在COCO上的表现

2022-12-18 10:49:10 124

原创 Transformer中没有CNN中的Inductive bias(归纳偏置)

ransformer中没有CNN中的Inductive bias(归纳偏置)

2022-12-08 14:09:33 2339

原创 DINO在Window复现报PermissionError: [Errno 13] Permission denied:

DINO在Window复现报PermissionError: [Errno 13] Permission denied:

2022-12-04 16:11:30 193

原创 没有激活函数的神经网络不是在做线性变换

没有激活函数的神经网络不是在做线性变换

2022-11-25 09:59:05 401

转载 pre-norm 和 post-norm 的区别

之前关注过 pre-norm 和 post-norm 的区别,这篇文章中的 deepnorm 进一步发扬了这一点。

2022-10-28 17:14:50 1241

转载 为什么TransFormer中的FFN有两层,先升维再降维?

Self-Attention模型的作用是提取语义级别的信息(不存在长距离依赖),而FFNN是在各个时序上对特征进行非线性变换,提高网络表达能力。

2022-10-28 16:56:49 5433

原创 pytorch出现:CUDA error: CUBLAS_STATUS_INTERNAL_ERROR when calling `cublasSgemm( handle, opa, opb, m, n

pytorch出现:CUDA error: CUBLAS_STATUS_INTERNAL_ERROR when calling `cublasSgemm( handle, opa, opb, m, n

2022-10-25 14:05:33 1815

原创 linux和windows的checkpoint保存地点

linux和windows的checkpoint保存地点

2022-10-22 19:29:11 699

原创 FeatureMap的通道和特征点的维度

FeatureMap的通道和特征点的维度

2022-08-02 17:10:14 625

转载 CPU 64位和32位

不同的CPU都能够解释的机器语言的体系称为指令集架构(ISA,Instruction Set Architecture),也可以称为指令集(instruction set)。Intel将x86系列CPU之中的32位CPU指令集架构称为IA-32,IA是“Intel Architecture”的简称,也可以称为i386、x86-32。AMD等于Intell提出了x86系列的64位扩展,所以由AMD设计的x86系列的64位指令集架构称为AMD64。后来Intel在自己的CPU中加入和AMD64几乎相同的指令集,

2022-05-03 15:56:19 869

转载 X86 64位和32位

不同的CPU都能够解释的机器语言的体系称为指令集架构(ISA,Instruction Set Architecture),也可以称为指令集(instruction set)。Intel将x86系列CPU之中的32位CPU指令集架构称为IA-32,IA是“Intel Architecture”的简称,也可以称为i386、x86-32。AMD等于Intell提出了x86系列的64位扩展,所以由AMD设计的x86系列的64位指令集架构称为AMD64。后来Intel在自己的CPU中加入和AMD64几乎相同的指令集,

2022-05-03 15:55:07 479

原创 CAP概念

①一致性:对于客户端的每次读操作,要么读到的是最新的数据,要么读取失败。换句话说,一致性是站在分布式系统的角度,对访问本系统的客户端的一种承诺:要么我给您返回一个错误,要么我给你返回绝对一致的最新数据,不难看出,其强调的是数据正确。②可用性:任何客户端的请求都能得到响应数据,不会出现响应错误。换句话说,可用性是站在分布式系统的角度,对访问本系统的客户的另一种承诺:我一定会给您返回数据,不会给你返回错误,但不保证数据最新,强调的是不出错。③分区容忍性:由于分布式系统通过网络进行通信,网络是不可靠的。当

2022-04-22 15:42:31 116

原创 SOA 和微服务的主要区别:

SOA 和微服务的主要区别:微服务剔除 SOA 中复杂的 ESB 企业服务总线,所有的业务智能逻辑在服务内部处理, 使用 Http(Rest API)进行轻量化通讯。SOA 强调按水平架构划分为:前.后端.数据库.测试等,微服务强调按垂直架构划分, 按业务能力划分,每个服务完成一种特定的功能,服务即产品。SOA 将组件以 library 的方式和应用部署在同一个进程中运行,微服务则是各个服务独 立运行。传统应用倾向于使用统一的技术平台来解决所有问题,微服务可以针对不同业务特征选 择不同技术平台,去中

2022-04-22 15:13:51 1439

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除