自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 loss不下降

本来,前几天的unet分割模型我已经调试并且跑出来精度很高的模型了,在用模型进行量化的时候发现出现了新的数据,而这个类型的数据在我训练集里是很少的,导致在预测这类数据的时候效果很差,只能把这类数据又标出来了一部分,混合之前的再次训练。按理说,模型效果不会波动很大,但是这次训练的时候损失值一直不下降,各种修改之后突然想起来,我之前训练的时候模型最后一层是个卷积,并没有加softmax来让特征值成为概率。果真,我loss不下降就是因为加了softmax,去掉之后loss大幅度下降,很神奇啊,通常最后一层的分类器

2020-11-23 22:02:09 598

原创 目标检测小笔记

1.在yolov2论文中看到这个小方法:目标检测的模型可以在ImaegNet数据集中过一下,微调一下模型参数。之前一直做分割,还是遥感图像,这个数据集应该没帮助,现在学习检测,记住这个小方法。...

2020-11-20 19:08:58 81

原创 关于目标检测中预测后如何选择最终目标

yolo部分算是顺利地复现了代码,记录一下学习过程中的几个点:全图是被分成7*7个部分,并不是一个格子7*7大小,这里我老是忘记! 数据标签中bbox的边框是[x,y,w,h]表示形式,在此基础上随同图像进行一系列的变化。图像因为大小不同,且还不是正方形,所以要预处理到448*448大小。网上代码有两种处理方式:一是先给图像短的一边加上value=0的pad,使图像变成正方形,再缩小或扩大至448,一是直接将图像拉伸成448。这里我选择了第一种方法,觉得不会破坏图像的真实特征。 跟随图像的变化,b

2020-11-19 20:20:36 204

原创 关于RPN

RPN中的流程:1.每个点都生成9个框(假设),全图的框非常非常多,根据这些框与真实框之间的交并比,以一定阈值筛选出接近真实的框,但是这些框是粗糙的,使用回归使这些框与真实框一致。2.关于边框回归,这篇文章写的非常详细https://blog.csdn.net/zijin0802034/article/details/77685438/根据假框和真框,使用真实偏移缩放量作为Y,为预测偏移缩放量来计算损失函数,再反向传播,计算出W,为feature map的特征向量。在最后预测的时候,可推算出对象

2020-11-18 21:51:40 157

原创 Mask RCNN个人理解

今天学yolov2,一看又提起来RPN了,突然把maskrcnn的细节给忘了,本子上记录一下,博客里记录一下,以后好翻看。下文几乎来自知乎文章:https://zhuanlan.zhihu.com/p/37998710以ResNet-FPN提取图像信息,得到P2,P3,P4,P5这4张特征图像,另外一张P6是P5上采样的到,这5张大小不同,通道相同。 将上一步中P2,P3,P4,P5,P6特征图分别送入RPN,FasterRcnn的核心,用来找到最合适,最接近正确物体的框的4个坐标,和两...

2020-11-18 21:26:49 379

转载 优化器的发展进程

选择合适的优化器和合适的参数真的是费时间费心力的一件事啊,大佬都爱嘲笑现在搞深度学习的是调参侠,我怎么觉得调参也很难啊/(ㄒoㄒ)/~~实验室里一位不搞深度学习的同学在知乎上看多了大佬吐槽调参侠的帖子,居然嘲笑我们都是调参侠(虽然我连不会调参都不会(⊙﹏⊙)),我当时就想说他,大佬吐槽可以,那是人家有资本,你在这方面啥也不懂你吐槽个锤子?但我这句话根本没说出口,不想和他在这种事情上掰扯不清,他爱咋想咋想,反正对我这个菜鸟来说,能调出合适的参数也是很不容易的!吐槽结束,这里留下关于优化器的发展,写的很

2020-10-31 20:13:20 374

原创 PIL和cv2读取图片时的差异

今天要写的代码涉及到数据增强的部分,因为我用的框架是pytorch,想着如果直接有数据增强的函数直接用就好了,省的写了,查了一下确实有,就在torchvision的tranform中,但是这里面对于图像的变化都是针对于PIL图像的,而我之前对于图片的操作都是用的给cv2,就稍微看了一下PIL的用法,再加上函数,图像增强的部分算是搞明白了。但是在我训练完之后,要预测时,因为要计算混淆矩阵,但是老出错误,往回寻找错误才发现问题。混淆矩阵计算时,真值和预测值所对应的标签都是一致的,比如我是两分类,预测的结

2020-10-30 19:42:42 710

原创 Faster-RCNN的个人理解

两周前复现了一下pointnet++,本来想赶紧写博客记录一下梳理完的网络流程,但因为一些不可抗力必须去做一些浪费时间的事情,没时间整理,所以搁置了,这两周也在断断续续学习目标检测的东西,因为之前只会分割,别人说cv的精髓都在检测,所以现在开始学习关于检测的东西,首先选择了Faster-RCNN作为开端,今天就记录一下我对此模型的理解。网上大神很多,不论是对论文的讲解还是对代码的分析,都很透彻,但我用了很长时间才真正明白pytorch版本代码的真正流程......,我就是笨,那么清楚的讲解,我居然还用这

2020-10-03 21:35:07 109

原创 pointnet个人理解与实践

第一次进行三维数据的深度学习,都说pointnet是绕不过去的一篇文章,一周时间终于理解和跑通pointnet对于三维数据的分类和分割原理。数据:网上可搜到的点云数据很多,但几乎都是未经过整理的,对于pointnet,每个点云的点数量需要一致,因此需要对下载到的数据进行整理。我对于点云的理解:每个点仅有三个信息,就是它们的坐标,不像图片那样还具有像元值。无论是网格,点云还是其他三维数据,它们归根结底都是只有三个坐标信息,网格也是由对点连接生成线,组成形状,进而成为三维格网。pointnet可

2020-09-07 21:37:04 1540

原创 第一帖

初入深度学习时主要进行的工作是对遥感影像进行分割,使用的框架keras虽然简单,但完全可以解决我在对二维图像分割时的需求。现在要学习深度学习在三维数据上的应用,因此框架准备调整为pytorch,都说pytorch轻量,简介,易操作,我也来试试吧~我的学习习惯是将学到的模型和对其理解记录在本子上,现在我得学会使用这样的电子笔记来记录我的学习过程,也好方便以后查看。...

2020-09-07 20:48:42 91

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除