自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(155)
  • 资源 (2)
  • 收藏
  • 关注

原创 3月发生的一些事

3月很快就要过去了,3月份我做了很多事,前半个月搞基金的事,折腾着。下半个月自己的孩子出生了,每天都比较累。但是这一切都是一个新的开始。下个月会逐渐走上正轨。

2024-03-26 17:21:29 103

原创 2024年随想

今天2月最后一天了,明天就是3月了,年也正式算过完了吧。我也到了新的单位工作。

2024-02-29 22:00:46 405

原创 语义分割现状

个人感觉现阶段语义分割已经走上了一种全新阶段了,我看了一下最近相关语义分割论文,现在语义分割论文逐渐分成了两个层次,一些好的团队已经将其他领域的一些新的知识应用到语义分割网络上,还有一些普通的团队还是在和U-Net 死磕。我等普通人需要加油了。

2024-01-10 11:20:14 408

原创 ValueError: numpy.ndarray size changed, may indicate binary incompatibility. Expected 88 from C head

运行代码时出现上述问题,在网上搜索都是降低Numpy 版本或者是提高numpy 版本,但是我在实践中问题一直没有解决,然后我看了看问题,往上面一看,原来是skimage 代码引起的。然后我将skimage 版本降低就成功解决问题了。所以大家在遇到这个问题时候,如果降低numpy 版本不行,不妨看看报错的上面代码,看看是不是其他库引起的,这个时候尝试将其他库版本也降低一下,也许问题就解决了。

2023-12-23 11:31:07 352

原创 Tensorflow 2.5.0 报错Invalid argument: required broadcastable shapes at loc(unknown)

在我一筹莫展的时候,我想看看构建的模型到底是什么样子,所以我就用model.summary 展开了模型,展示模型以后才发现,原来自己输出的最后形状和金标准的形状不一样,这才导致出现上述问题,我把最后的输出形状改了以后,模型立马就可以运行了。》我认为自己找到了解决方法,但是发现跟上述文章中描述的不一样,我在softmax和sigmoid 下面都有这个问题,发现这个跟自己想象的不一样。在解决这个问题中,得到的经验是,大家在运行模型出现问题时,记得多看看模型本身是什么样子,一切问题的根源就在你构建的模型中。

2023-12-22 11:15:04 489

原创 语义分割方面的思考

我个人感觉现在深度学习的语义分割对普通人越来越不友好了,现在分割网络逐渐开始拼财力拼服务器算力了,对于普通人来说跑一些简单的网络做一些简单的修改发一些好文章越来越难了。现在大组逐渐开始讲究团队合作了。对于我们普通人来说只能走一步看一步了。

2023-11-30 17:04:53 408

原创 新的U-Net 网络结构

segmentation 这个文章提出了一种新的U-Net 网络结构。以前大家使用U-Net 喜欢加入新的模块或者使用多个U-Net 并联的方法进行语义分割。这篇文章提出了一种的新U-Net 结构。通过嵌套U-Net(NU-net)架构通过减少网络对不同尺度输入图像的敏感性并进一步提高对目标或区域特征的特征化能力,从而改善了分割准确性。在这里使用了嵌套的方法进行语义分割,这也给后续进行网络进行改写创造了新的思路。这篇文章给我另外一个惊讶的点是这篇文章发表在PR 杂志上面。

2023-10-14 10:08:26 317

原创 人生之路漫长

人生不同的时间会遇到不同的人和事,你不知道这些事会对你以后产生什么影响,只希望后面有好的收货。

2023-08-24 12:20:53 78

原创 FLatten Transformer 简化版Transformer

虽然现在Transformer 比较火,在分割上面也应用的比较多,但是我一直不喜欢用,其中一个原因是结构太复杂了,平时我主要用一个sel-attention 感觉都有点复杂了,如果用多头会更复杂。与这些方法不同,线性注意力将Softmax解耦为两个独立的函数,从而能够将注意力的计算顺序从(query·key)·value调整为query·(key·value),使得总体的计算复杂度降低为线性。的计算往往会带来过高的计算量。针对这一问题,先前的工作通常通过减少参与自注意力计算的特征数量的方法来降低计算量。

2023-08-12 16:37:06 731 1

原创 EGE-UNet, 轻量化U-Net

其实一开始看到这个网络结构,我感觉有点恍惚,这都2023年了,还有人 这样魔改U-Net, 但是当我看我以后,发现了一些新的思路与方法。具体网络结构与细节,大家可以具体看看论文,我看完这篇文章的感觉,不在于模型设计的两个模块的精巧,而是看到原来还可以这样多层预测进行分割呀。通过这些高级模块的集成,EGE-UNet 在比先前的方法提升了分割性能的同时,显著减少了参数和计算负载。随着transform 的出现,现在语义分割网路结构越来越复杂,轻量化网路也较少了,有些轻量化也只是名义上的轻量化。

2023-07-23 16:24:02 1387 1

原创 Bridging ConvNeXt and U-Net for medical image segmentation

最近在收集论文时发现一篇比较有趣的论文,当提到ConvNeXt时,大家应该都知道,比较这个网络跟Transformer 一较高低的网络,在前段时间transformer 很多的时候,涌现了许多将transformer和U-Net 相结合的网络,现在有人将ConvNeXt网络与U-Net 进行了组合,其实整个论文思路很简单。我在这里推荐这篇文章并不是说这篇文章结构多么精巧,设计多么新颖。我只是想说一篇论文成功发表的关键点不是你想法多么新颖,而是在你整篇论文写法。

2023-06-20 11:09:54 343 4

原创 Head-Free Lightweight Semantic Segmentation with Linear Transformer 新颖的分割网络

现有的语义分割网络基本都是编码解码结构,新的语义分割网络主要都是在解码阶段添加新的不同模块,提高解码阶段特征处理能力,从而实现语义分割。它采用并行架构来利用原型表示作为特定的可学习的局部描述,以替换解码器并保留高分辨率特征上丰富的图像语义。尽管去掉解码器压缩了大部分计算,但并行结构的准确性仍然受到低计算资源的限制。因此,作者采用异构运算符(CNN和Vision Transformer)进行像素嵌入和原型表示,以进一步节省计算成本。最近我个人也在尝试去掉解码阶段实现语义分割,整个上面来说效果还行。

2023-05-23 11:52:23 153 2

原创 Per-Pixel Classification is Not All You Need for Semantic Segmentation MaskFormer 论文

如上图可以可以看出,掩码嵌入向量用于通过与从基础卷积网络中获得的每个像素嵌入的点积来获取二进制掩码预测,可以看出MaskFormer 相比于以前的transformer 模型在Backbone 或者 decoder 里使用tranformer ,它直接选择在中间提取的特征中分出一个特征提取流来利用 transformer ,并且将两者相结合在一起。现在主流的语义分割模型是作为像素集分类任务来处理的,但是再最新的实例分割则是使用掩码分类来处理, MaskFormer 论文将两者组合在一起了。

2023-04-23 10:44:37 128

原创 语义分割参考

前者用于提取丰富的多尺度局部特征,后者利用自注意机制将随机的全局信息编码到局部特征中。实验表明,论文的完整模型在。,并设计了一个混合结构Lite-Mono。(CDC)模块和一个。

2023-03-20 22:00:36 128 2

原创 Simple and Efficient Architectures for Semantic Segmentation 简洁的语义分割论文

大家有兴趣可以细看,我看到这篇文章发表于CVPR2022,看到这篇文章给我最大的感受并不是什么网络设计多么精巧,这篇文章主要是用了FPN 结构。给我最大的感受是,对一些常用的东西,我们只要认真弄,也是可以发好文章的。,文章以语义分割为主,整体结构简单明了。今天在看论文时注意到了这篇论文,

2023-02-25 20:11:16 223

原创 神经网络原理探索

每个神经元后面带有一个非线性的激活函数,输入经过一层神经网络非线性映射相当于对原始的输入空间做了一种非线性扭曲,在扭曲后的空间上再用一层神经元做半平面的剖分,那么两层神经网络综合的作用相当于把decision region 凸多边形那种划分。但是针对神经网络具体原理现在是公说公有理婆说婆有理,每个人都有自己一套理论研究。在我看到一篇很好的文章,对于神经网络进行的解释,大家可以看一下。当然这只是一家之言,每个人都有自己的想法,如果要看更详细的说明可以看文章。这个文章,里面有详细的说明,神经网络的拓扑结构。

2023-01-10 11:52:38 102

原创 一种新的语义分割思路

即学习一个函数 f(z, x) 来比较样本图像 z 和搜索图像 x 的相似性,如果两个图像相似度越高,则得分越高。为了找到在下一帧图像中目标的位置,可以通过测试所有目标可能出现的位置,将相似度最大的位置作为目标的预测位置。我在这里并不是要具体说明该方法的优点,我只是想到了一个很好的思路,那就是在语义分割中我们能不能使用这种类似的方法,去进行图像分割。这两天看到一篇挺有意思的论文,虽然不是语义分割方面的但是挺有意思的,因此在这里跟大家分享一下,这个也是一种语义分割的思路和方法。

2022-12-24 11:49:56 251

原创 Semi-supervised medical image segmentation via uncertainty rectified pyramid consistency 半监督医学图像分割

现在由于深度学习有监督分割基本也搞到头了,各种新网络新结构层出不穷,人们把精力主要放到了半监督分割任务上了。半监督学习旨在通过结合少量标记数据和大量未标记数据来取得可喜的结果,因此关键步骤是为未标记数据设计有效的监督。因此,已经提出了许多方法来有效地利用未注释的图像。今天看到一篇毕竟好的论文,整个思路并不复杂,给人感觉,原来还可以这么弄呀。通过图片,我们可以发现,这是一个典型的UNet 神经网络,加了金字塔结构。其实网络可以弄的并不复杂。

2022-11-22 11:38:40 616 2

原创 半监督的语义分割算法

现在随着标签数据成本的增加,现在无监督、半监督和弱监督,逐渐受到学术圈的研究。现在很多算法逐渐开始使用半监督的算法。这篇文章是一篇比较经典也是一种大家可以想到的简单的半监督分割算法。半监督语义分割算法的难点在于如何利用未标记的数据和如何训练未标记的数据。而这篇文章很好的解决了这个问题。在半监督中对于未标注的数据如何使用,每个人有不同的方法,在这篇文章中,作者使用了多视角的方法,对于同一个未标注的数据,使用多个网络进行相互的监督学习。这个思路很简单明了。论文精华就是上述这幅图,具体细节大家可以看一下论文。

2022-10-10 14:21:32 1946

原创 人生不如意十之八九

人生就是这样,不如意的事,十之八九,没有一直顺利。

2022-09-08 12:07:52 137

原创 多方面改进的缺陷检测网络ES-Net

大家看到个结构图有什么感觉,有些搞过目标检测的会说这是很传统的深度学习搞目标检测的结构呀。分成三个部分,然后在每个地方魔改一下结构。其实我想说的是,现在是2022年了,整个深度学习进入了一个瓶颈期了,魔改网络时期基本已经过去了。但是在看到这篇文章以后,我想说的是,文章能不能发出去,已经跟网络结构没什么关系了,主要还是故事讲的好了。希望像我这么普通的人一起努力,争取发好的文章。这篇文章属于目标检测方面的文章,跟我目前在弄的语义分割网络有一些差别。我为什么对这篇文章有感觉呢,大家看一下这篇文章整幅结构图。...

2022-08-07 09:40:12 1183

原创 大卷积核的思考

前段时间我看到了一篇讨论大卷积核的论文RepLKNet这个论文讨论了大卷积核的作用,今天我又在网上看到了一篇类似的论文。看到这个我突然想到,以前我们在卷积神经网络中一些比较常用的或者习惯的思维,有时候可以修改修改,也许也可以获得不一样的效果。具体的论文细节大家可以自己去看论文,但是看到上面的一个图,大家就应该明白是怎么回事了,作者把大的卷积核拆开来使用了。这篇文章讨论了更大的卷积核达到了51×51....

2022-07-17 08:49:04 1286

原创 半监督的语义分割

半监督语义分割

2022-07-11 16:46:35 2167

原创 六月感想--针对今天不顺心的事的总结

个人随想

2022-06-22 16:26:11 249

原创 Mobile-Former: Bridging MobileNet and Transformer 新的网络结构

在看论文时,发现了一个比较好的论文,大家在语义分割上面可以借鉴一下的。这种结构利用了 MobileNet 在局部处理和 Transformer 在全局交互方面的优势。并且该bridge可以实现局部和全局特征的双向融合。 与最近在视觉Transformer上的工作不同,Mobile-Former 中的Transformer包含非常少的随机初始化的token(例如少于 6 个token),从而导致计算成本低。这种结构,我们可以沿用到语义分割神经网络中。...

2022-05-28 11:40:33 341

原创 Residual Local Feature Network for Efficient Super-Resolution 超分辨率处理论文

最近我看到一篇关于超分辨率处理的论文,感觉这篇论文对于语义分割很有参考意义,所以在这里分享给大家,希望大家对对于分割方面有借鉴意义。对于超分辨率方法我个人不是很了解,在这里我就不细说,以免说错出丑。大家可以看一下上面提到的论文。这篇文章主要针对的是图像超分辨率领域部署难得问题,提出了一种轻量级得残差局部特征网络(RLFN)网络框架如上图所示,RLFN由三个简单得部分组成:首先是大小为3×3得卷积,用以提取浅层特征,包含丰富得边缘与细节信息得特征,然后是多个RLFB 模块进行深度特征提取,该部

2022-05-26 14:56:40 620

原创 解决Anaconda3 安装库 卡 solving environment 的方法

解决方法使用mamba安装mambaconda install -c conda-forge mamba安装完之后就可以使用mamba来替代conda进行所有下载操作。常用命令添加包mamba install 包名删除包mamba remove 包名

2022-04-30 23:52:41 1785

原创 TopFormer 新的语义分割Transformer 结构

现在语义分割领域,最热门的当属Transformer的应用了,你要是在网络中不添加,那么就显得你的创新点大大降低。但是现在语义分割领域Transformer的计算量太大了,导致应用的还比较少。这两天我看到一篇比较好的论文,也给我们提供了一种新的语义分割思路。这篇文章是TopFormer,其中作者使用了一些方法来降低模型运算复杂度:作者利用了CNN和ViT的优势。构建了一个基于CNN的模块,称为Token Pyramid Module,用于处理高分辨率图像,以快速生成局部特征金字塔。考虑到在移动设备上

2022-04-20 20:03:59 4330 2

原创 关于卷积核大小的论文与思路

随着近些年深度学习的发展,人们在选用卷积神经网络时通常都会默认卷积核为3×3 或者5×5的,感觉像已经是一个默认的公式一样了。正常来说大的卷积核不是可以获得更大的感受野对模型性能更好吗?怎么大家都不用呢。也许你会是这样模型复杂度高了呀,Flops 大了。那我们可不可用一种方法降低复杂度而使用大的卷积核呢。然后我看到了这篇论文。Scaling Up Your Kernels to 31x31: Revisiting Large Kernel Design in CNNs .这篇文章讨论了大的卷积核的作用。

2022-03-14 21:03:46 2989

原创 新的 self-attention 网络结构,Visual Attention Network

随着现在大家把transformer 的各种结构玩成花以后,后面也没有出什么比较经典的结构了。然后研究者们就开始挖掘以前的网络结构特点,加上各种技巧提高网络准确度。比如前段时间的ConvNeXt,各种叠技巧最后冲的很好准确度。现在又出来一个新的网络结构:Visual Attention Network。作者提出了一种新的Large Kernel Attention (LKA)模块,以使self-attention的自适应和长距离相关,同时避免了上述问题。与MobileNet相似,它将一个标准的卷积解耦为

2022-02-22 19:36:36 1896

原创 A ConvNet for the 2020 一篇总结性的论文

最近在看论文时发现了一篇总结性的文章,推荐给大家最近一段时间transform 太火了,基本上大家都在用这些东西,传统CNN 用的反而少了起来,因此这篇论文提出了一些提高CNN 的方法,最后超过了大热的transform。这篇文章是ConVNet for the 2020.这是一篇总结性的论文。大概扫一扫你会发现好像没什么创新点,好像文章说的东西你都懂啊?是的,可以理解这次提出的ConvNeXt其实就是ResNet的魔改,类似于打比赛刷榜那样,一点点trick不断地加,并用非常solid的实验验证了这些

2022-01-14 13:17:23 850

原创 Masked Feature Prediction 一种新的自监督学习算法

最近发现了一篇挺好的论文,虽然不是语义分割方面的论文,但是看完以后还是很有启发性的。论文名称:Masked Feature Prediction for Self-Supervised Visual Pre-Training 这是一种新的自监督学习算法,当然依然利用最近何大佬提出的mask-and-predict这样的思想来实现自监督学习预训练。其中最大的区别在于利用mask后的图像直接在特征空间中回归HOG特征实现网络训练。整体的算法结构图如下所示,整体思想非常简单。mask输入图像的部...

2021-12-23 18:41:58 3243

原创 医学图像语义分割感触

研究医学图像语义分割也有几年时间了,论文也发了几篇,项目也做了几个。但是自从这段时间闲下来,不需要为了毕业赶论文,手上几篇灌水论文的工作也慢慢停了下来,进度也越来越慢。看着我以前写的论文和即将要写完的论文,突然有点感触写下来。我现在不知道医学图像语义分割的研究点在哪?难道真的是加几个模块,引入一个概念然后写几篇论文?现在深度学习感觉已经过了打榜的时代了。每天都会发现一些新的论文新的网络结构,但是有时候想想这些结构或者网络真的有效吗?真的只要能够发论文就可以了吗?也许你会说你可以不追求发论文,现在医学图像

2021-11-08 15:31:13 370 3

原创 NON-DEEP NETWORKS ------ParNetFuse

本文是普林斯顿大学的Jia Deng团队的最新力作ParNet:它凭借12层的深度网络在ImageNet上达到了80.7%的top-1精度 。所提ParNet以RepVGG的模块为出发点,同时提出了针对非深度网络设计的SSE模块构建了一种新型的模块RepVGG-SSE 。所提方案凭借非常浅的结构取得了非常高的性能,比如:ImageNet的80.7% ,CIFAR10的96%,CIFAR100的81%,MS-COCO的48%。此外,作者还分析了该结构的缩放规则并说明了如何不改变网络提升提升性能。最后,作者还提

2021-10-22 16:07:41 924

原创 UCTransNet 又一个transformer的医学图像语义分割模型

这篇文章也是一个医学图像语义分割的模型,同样是基于U-Net,UCTransNet文章一开始分析了,U-Net 的各种形式,对于大家熟悉的跳连接进行了分析。发现由于编解码器阶段特征集不兼容,并不是每个跳跃连接设置都是有效的,甚至一些跳跃连接会对分割性能产生负面影响; 原有的U-Net在某些数据集上比没有跳过连接的U-Net更差。后来作者提出了一种新的模型结构,具体来说,CTrans(Channel Transformer))模块是U-Net skip connections的替代,其中一个子模块用.

2021-09-15 16:28:15 1424

原创 新的开始,新的征程。

2021年9月10 今天正式答辩结束,标志着我即将开始一个新的生活。加油,努力。

2021-09-10 20:32:51 127

原创 MobileFormer-MobileNet和Transformer的相结合得结构

看到了一篇比较有意思的论文Mobile-Former: Bridging MobileNet and Transformer。在论文中,作者提出了一个并行设计的双向连接MobileNet和Transformer的结构Mobile-Former。这种结构利用了MobileNet在局部信息处理和Transformer的在全局交互方面的优势,这样的连接可以实现局部和全局特征的双向融合。不同于现有的Vision Transformer,Mobile-Former中的Transformer包含很少的、随机初始化的t.

2021-08-24 16:32:24 641

原创 图像融合中transformer

现在深度学习中transformer 模型已经得到了深度的应用,不同的计算机视觉任务中大家都开始使用transformer跟当初attention 机制刚刚提出来一样。今天看到一篇很有趣的文章。一个基于transformer 的图像融合算法。主要逻辑框架如下图:总体上看,这是一个编码解码的结构。这里我不是主要弄图像融合,我看到这个网络结构模型突然想到了,语义分割网络中是否可以使用该网络结构呢。其中主要是一个transformer 模块的加入。由机会,大家可以尝试一下。...

2021-07-21 17:43:16 1656 1

原创 python 画图显示中文乱码问题

在进行python 画图时 显示图片中文标题时会出现乱码。在最前边设置这两条属性即可:plt.rcParams[‘font.sans-serif’]=[‘SimHei’]plt.rcParams[‘axes.unicode_minus’] = False这里SimHei 表示黑体,如果想换成别的,大家也可以看看python 字体。...

2021-07-16 09:53:04 6884 1

原创 EPSANet 新的注意力模型

在看了这么多的注意力模型以后,我还以为现在注意力模块再也玩不出什么新的花样,知道我看了这篇文章EPSANet。看完以后,我眼界又开了,发现原来还可以这么玩。本文提出了一种新的高效金字塔注意力分割模块(Efficient Pyramid Split Attention, EPSA),该模块可以有效地提取更细粒度的多尺度空间信息,同时可以建立更长距离的通道依赖关系。EPSA模块非常灵活和可扩展的,因此可以直接应用到各类计算机视觉网络架构中。 本文提出了一种新的骨干网络:EPSANet,它可以学习更丰富的多

2021-06-25 21:56:59 3259 8

Andrew Y. Ng论文

这是我在网络上下载的一些Andrew Y. Ng关于深度学习的论文。现在拿出来跟大家分享。一起学习学习

2014-12-28

深度学习sparseae_exercise

此代码不是原创 是参考斯坦福大学的教程 还有大牛blog中的代码.我只是自己敲出来自己研究研究。现在把拿出来大家分享分享.

2014-12-28

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除