自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(101)
  • 资源 (1)
  • 收藏
  • 关注

原创 yolov8-seg dnn调用

那问题会不会出在yolov8源码本身呢,我决定尝试在其前身yolov5的讨论区上找找我不信没人遇到这个问题。cv2.dnn.readNetFromONNX读取yolov8的onnx报错解决过程_opencvsharp.dnn.net.readnetfromonnx(onnxfile);里面报错不一致了dimension -837: [0, -837]改为了dimension -881: [0, -881]了,肯定哪里还要做调整。再看看yolov8的这段dnn推理代码果然没有同样的问题在。

2024-02-23 15:42:35 1182

原创 cv2.dnn.readNetFromONNX读取yolov8的onnx报错解决过程

找到解决方法如下转换时要设置(关键是添加opset=11)上述是尝试用opencv读取模型时的报错信息。

2024-02-20 15:14:18 1068 2

原创 centos7 安装nnDetection环境

为了不返工,我这里就在本机安装cuda10.2版本(虚拟环境中cu102应该值局限与可执行调用,要现场编译就不行了)下子cuda10.2和对应cudnn库。如上所示可用,看来服务器没安装cuda可以在下载torch是可自带编译好的对应cuda版本来替代(不过可能还需要低于驱动显示的CUDA Version: 11.0 版本)这里进一步将pytorch版本要求提升到pytoch1.10以上,并且要匹配CUDA版本。其它安装库都没啥问题,但是在编译nms.cu时用到了安装在本地cuda版本。

2023-12-11 18:16:20 1150

原创 win10 安装 vs2015(社区版本)以及opencv-4.5.5

win10 vs2015 opncv-4.5.5

2023-02-15 13:17:29 1316 1

翻译 CT影像中肺结节自动检测算法的验证、比较和组合:The LUNA16 challenge

luna16数据集描述

2022-06-28 15:12:28 1235

原创 GitLab使用攻略

GitLab

2022-05-23 17:47:57 228

原创 Ubuntu18.04 LTS 安装nvidia驱动出现Ignoring CC version mismatch

安装nvidia驱动出现Ignoring CC version mismatch问题的解决方法,出现NVIDIA-SMI has failed because it couldn’t communicate with the NVIDIA driver. Make sure that the latest NVIDIA driver is installed and running问题的一种可能解决方法。

2021-12-16 10:58:08 2475

原创 训练日志关于速度

cudnn.benchmark=True 将会让程序在开始时花费一点额外时间,为整个网络的每个卷积层搜索最适合它的卷积实现算法,进而实现网络的加速。适用场景是网络结构固定(不是动态变化的),网络的输入形状(包括 batch size,图片大小,输入的通道)是不变的,其实也就是一般情况下都比较适用。反之,如果卷积层的设置一直变化,将会导致程序不停地做优化,反而会耗费更多的时间。作者:xiaopl链接:https://zhuanlan.zhihu.com/p/73711222单个Epoch速度

2021-11-23 16:29:51 657

原创 Ubuntu18.04全命令行在3090显卡上安装pytorch环境

1.3090驱动安装:sudo add-apt-repository ppa:graphics-drivers/ppasudo apt updatesudo apt install nvidia-driver-470sudo apt autoremove xserver-xorgsudo apt autoremove --purge xserver-xorgsudo apt-mark hold nvidia-driver-470 # Freeze NVIDIA Drivers。阻止自动更..

2021-10-09 15:31:30 1623 4

原创 图像分割中dc_loss忽视标签实现

实现:>>> import torch>>> from torch import nn>>> input = torch.randn([3,3], requires_grad=True)>>> target = torch.empty([3,3]).random_(2)>>> mask = torch.Tensor([[0.,0.,1.],[0.,0.,1],[1.,1.,1.]])>>&g

2021-09-08 14:50:16 265

原创 Pytorch的BCEWithLogitsLoss函数中忽视标签怎么实现

1.尝试:>>> import torch>>> from torch import nn>>> loss = nn.BCEWithLogitsLoss()>>> loss1 = nn.BCEWithLogitsLoss(reduction='none')>>> input = torch.randn(3, requires_grad=True)>>> inputtensor([0.

2021-09-08 14:42:38 1391

原创 关于在阅读nnUNet代码中的一些小细节的记录(三)

1.推理阶段:nnUNet/nnunet/training/model_restore.py的60行的recursive_find_python_class函数的参数current_module。改为当前的network_training目录的位置。如下:current_module="AIseg.core_prepare_result.nnunet.training.network_training"...

2021-04-30 17:53:23 499 4

原创 Pytorch1.7.1与SimpleITK2.0.0在centos7上终端运行冲突的情况

1.ttt.py如下:import SimpleITKimport torchprint(torch.cuda.is_available())pycharm上运行:TrueProcess finished with exit code 0终端上运行:(framework_py38) [pacs@localhost Liver]$ python ttt.py段错误(吐核)2.ttt.py代码改动import torch和import SimpleITK 顺序。i

2021-04-14 10:11:11 124

原创 Pytorch 尝试通过强化cpu使用加快训练和推理速度(二)

简介:这系列第一篇中讲了多线程和多进程的适用范围,写这篇的原因是遇到了进程池嵌套进程池的问题。(情况:我写的代码中使用了进程池,其中一个进程调用它他人写的使用进程池的函数。表现:他的函数直接跳过没有任何报错,最终定位到pool=Pool(x)。)1. 先举个进程池嵌套进程池的代码例子.(参考后续文献)import multiprocessingimport multiprocessing.poolimport timefrom random import randintdef slee

2021-04-09 17:18:57 766 1

原创 关于在阅读nnUNet代码中的一些小细节的记录(二)

1.推理阶段:在nnUNet/nnunet/network_architecture/neural_network.py的250行的_get_gaussian函数。 def _get_gaussian(patch_size, sigma_scale=1. / 8) -> np.ndarray: tmp = np.zeros(patch_size) center_coords = [i // 2 for i in patch_size] sig

2021-02-22 16:00:03 638

原创 Pytorch 尝试通过强化cpu使用加快训练和推理速度(一)

目标:pytorch不管是训练还是推理时。cpu的使用率基本只有10%左右,尝试更好的利用cpu来加快训练和推理。1.在搜索资料时很多作者都提到了python的GIL问题,这边先了解下这个机制直接从例子入手。本机的cpu是i5-4460 4核4线程先参考涤生手记的清晰讲述,本实验用的是python3.5故修改下代码。( Python 3.2开始使用新的GIL。在新的GIL实现中其他线程请求这个锁的时候,当前线程就会在5ms后被强制释放掉这个锁。)GIL锁的释放机制:Python解释器..

2021-01-25 11:46:21 4319 2

原创 关于SimpleITK 使用函数sitk.WriteImage报错‘ERROR (nifti_image_write_hdr_img2): cannot open output file ‘

报错** ERROR (nifti_image_write_hdr_img2): cannot open output file './result17/HGG/Brats17_CBICA_AXN_1.nii.gz'1.首先判断路径是否存在,发现没问题。2.其次查看磁盘空间是否不足,发现已经不够用了。

2021-01-22 16:45:04 4563 1

原创 python 近期用到的基础知识汇总(八)

1.pytorch 的scatter()函数scatter()和scatter_()的作用是一样的,只不过 scatter() 不会直接修改原来的 Tensor,而 scatter_() 会.scatter(dim, index, src) 的参数有 3 个dim:沿着哪个维度进行索引 index:用来 scatter 的元素索引 src:用来 scatter 的源元素,可以是一个标量或一个张量>>> torch.zeros(3, 5).scatter_(0, t...

2021-01-14 20:25:12 156

原创 关于在阅读nnUNet代码中的一些小细节的记录(一)

首先,感谢paper桑大佬关于nnUNet项目的解释,我从中获益很多。本片是关于nnUNet代码中我看到的认为可能比较重要的某些细节的记录。1.

2020-10-23 16:48:44 2410 5

原创 python 近期用到的基础知识汇总(七)

1.os.path.split():按照路径将文件名和路径分割开.例如 o='/media/HDD/nnUNet_raw/nnUNet_raw_data/Task009_Spleen/inferTs2_3d_bk/spleen_3.nii.gz'dr, f = os.path.split(o)print(dr)/media/HDD/nnUNet_raw/nnUNet_raw_data/Task009_Spleen/inferTs2_3d_bkprint(f)spleen_3.nii.gz.

2020-10-23 14:08:29 141

原创 Postman 出现Error: connect ECONNREFUSED 127.0.0.1:7890

问题描述:查看consle,发现Postman一直疯狂去链接本地7890端口,而我根本没使用端口。一直报错Could not send request。解决方法:1、我在台电脑上安装Postman,然后链接同样的服务端口没问题。查看consle,发现没去连本地7890端口.两者设置对比了一下发现一样。2、但我总觉得是设置问题,后来不断尝试发现将setting-Proxy-Use the system proxy的勾选去掉即可我猜测本地的proxy设置的锅。...

2020-07-20 16:47:50 33315 5

原创 关于Resnet50和ResNeXt50的参数量的简单计算(只考虑卷积层和全连接层)

主要是我想知道ResNeXt50按cardinality方式每组是不是共享了参数?参考一张图:https://www.zhihu.com/question/323424817上面已经写了Resnet50和ResNeXt50的参数量Resnet50的参数量:1.conv1: 3(jpg输入三通道)*64(输出64通道)*7*7(卷积核参数)=90482.conv2:(64*...

2020-04-20 21:08:18 23626 7

原创 python自带的和numpy带的all(),any() 来判断各空矩阵和零矩阵 None,以及shape

1.all()函数

2020-04-20 17:45:00 2399

原创 pytorch加载之前训练模型中的部分参数以及冻结部分参数(实测,自己实际项目代码中的)

我的需求是,由于我在不停的尝试各种模型,导致模型木块一直会变。如果每次重复重新开始训练要花费大把时间。我之前运行的模型ResNet-> 三个ResNet参数共享。 ResNet-> 中间模块-> 结果 ...

2020-03-24 17:23:32 2335

原创 pytorch 一些关于模型参数冻结的问题

1.lambda表达式,又称匿名函数作用:函数速写语法:lambda arg : expression,解释:冒号前是参数,冒号后是返回值。例子:>>x=range(10)>>lambda x:x%2==12.filter函数参数:一个函数func和一个列表listfunc的作用:对list的每个元素进行判断,符合条件返回true,否则返回f...

2020-03-24 15:48:28 3352 4

原创 反卷积(Deconvolution)、上采样(UNSampling)与上池化(UnPooling)加入自己的思考(pytorch函数)(三)

ps:最近在做分割在github上找代码看模型时老发现尺度从小到大那部分,有的是采用上采样(双线性插值)+卷积,有的用反卷积。为什么不相同能,我查阅相关资料发现这位知乎大神根据外网大佬文章总结原因。知乎地址:https://www.zhihu.com/question/328891283。先放下我之前一二中都会放的图:这次我们重点关注下反卷积和上采样+卷积的结果对比。借用上面知乎大神的示例...

2019-11-28 16:12:59 1554

翻译 SCAN: Structure Correcting Adversarial Network for Organ Segmentation in Chest X-rays(译)

ps:机械翻译一下一篇论文摘要:  胸部X射线(CXR)是最常用的医学成像程序之一,其扫描量通常比其他成像方式(如MRI,CT扫描和PET扫描)高2到10倍。这些大量的CXR扫描给放射科医生和医学从业人员增加了很多工作量。器官分割是在CXR上获得有效的计算机辅助检测的关键步骤。在这项工作中,我们提出了结构校正对抗网络(SCAN)来分割CXR图像中的肺野和心脏。 SCAN包含了一个批评者网络...

2019-11-28 15:22:44 578

原创 luna16标签数据里的xyz,以及CT的dicom.ImagePositionPatient里的三个值分别代表哪些轴的初始点

在来看看dicom.ImagePositionPatient中三个值代表的是哪个的那些轴注意看第一段代码中的x对应Origin[0],y对应Origin[1],z对应Origin[2].而Origin的获取是以下代码:Ps:这里面的一些道道给了我很大的困扰,这里在我脑袋清晰的时候将理解记录下来防止以后再次弄混.先来看张图看看是怎么照CT:所以先不看Z轴,只看X轴和Y轴这个面,看出X是列...

2019-11-05 18:22:50 5627

原创 retinanet网络模型结构

ps:现在忙了好多,没时间更新博客了.现在我就简单直观得讲下retinanet网络模型结构.网上超多的博客的retinanet的结构只是放了如下:这里面的(a)和(b)之间的结构还是比较直观的也能理解(最多实际过程中FPN的输出层数变化会有偏差),但是(b)和(c),(d)之间看起来比较明确,但是对于最开始作为初学者的我存在这样的想法如果一个FPN输出的一个层后面会有W*H*KA和W*...

2019-10-24 18:32:37 2167 3

原创 pytorch 的自动求导机制解释

Ps:在深度理解自动求导机制时,非常幸运一开始看了ronghuaiyang大神翻译的这篇博客https://blog.csdn.net/u011984148/article/details/99670194从而整体思路没有出现偏差,但是由于本人水平不够的原因好多地方都是懵懵懂懂,一知半解的状态。所以我花了一下午找了相关资料整理了下,将博客理解配上代码重新以更直观的角度理解下这个简单,而又不那么简...

2019-09-18 10:26:31 1045

原创 Ubuntu16.04下 安装使用svn记录(注意不是搭建)

Ps:好久没更新了真的烦躁,各种改部署方案和代码,以及适应中间件和前端改变.加之希望优化项目(提升速度),还有用户需求的改变.还有看了两周的Ti9,上周末两天的Ti看的我太伤心了.cn dota 怎么了,前面那几届大环境不太好能打出这么好的成绩(有几届虽然没拿冠军,但是前8好多中国队),现在大环境怎么好战队各种赞助商VG,LGD等中国队队旗标志都快放不下了,反而没有以往的光彩,没了自己的体系只能被...

2019-08-26 17:43:10 326

转载 pytorch 关于显存增长原因以及显存占用优化

ps:师傅希望想tensorflow一样设置GPU占用(tf.GPUOptions),但事实情况是好像pytorch根本就没有相关函数来设置(如8G显存我只用2G,来跑是否可行)1.网上很多攻略关于pytorch 训练时显存持续增长的问题其实这个问题主要出现在0.4之前的版本,在累加loss时用的是loss_sum+=loss,而非loss_sum+=loss.data[0].因...

2019-07-16 18:53:37 9804

原创 关于python中自己写的模块之前相互调用函数

PS:之前偷懒直接用了添加系统路径的方法,现在代码越改越多也越杂,而且最近要添加多个配置参数,当我添加完参数发现崩了,服务计算一直失败,还是得用导包的形式,之前稍微用过但是一直模棱两可一知半解,现在知道一旦代码函数多了之后就得用它,希望能比较直观的理解1.先说下偷懒的方式也就是如下代码:import sys, ossys.path.append(os.path.dirname(_...

2019-07-16 18:12:58 797

原创 ubuntu16.04下安装windows软件,以及卸载.

1.安装wine.参考官网:https://wiki.winehq.org/Ubuntu如果你的系统是64位,则启用32位架构(如果您还没有)执行如下命令:sudo dpkg --add-architecture i386 接着执行:wget -nc https://dl.winehq.org/wine-builds/winehq.keysudo apt-key add...

2019-07-05 18:15:30 1476

原创 关于大量数据的随机打乱重保存.(少了详细解释,之后会更新)

ps:想要数据随机打乱时遇到由于数据量太大导致电脑卡死:def myshuffle(path,save_path,b,bb): for parent, dirnames, filenames in os.walk(path): l = len(filenames) lst = list(range(l-1)) random.shuffle(lst) ...

2019-06-18 18:58:23 483

原创 Focal Loss 分类问题 pytorch实现代码(续3)

ps:虽然无法用NLLLoss函数来实现.但好歹最后实现了自己的想法.现在再来测试下最后和最开始的Focal Loss如下:import torchimport torch.nn as nn #二分类class FocalLoss(nn.Module): def __init__(self, gamma=2,alpha=0.25): super(Focal...

2019-06-14 14:19:24 2018 12

原创 Focal Loss 分类问题 pytorch实现代码(续2)

ps:咱们继续.先贴一下交叉熵的公式:在贴一下我的尝试:>>> import torch>>> input=torch.randa(4,2)>>> inputtensor([[ 0.0543, 0.5641], [ 1.2221, -0.5496], [-0.7951, -0.1546]...

2019-06-12 19:44:14 961 3

原创 Focal Loss 分类问题 pytorch实现代码(续1)

ps:感谢Code_Mart的解答,肯定了思路,不过他也不确定是否可以在pytorch中那么写.事情这样模棱两可让我很烦躁决定深究一下.看到博客https://blog.csdn.net/qq_22210253/article/details/85229988对CrossEntropyLoss的实测决定二分类的上再实测一下理解.在图片二分类时,输入m张图片,输出一个m*2的Tensor(跟我的...

2019-06-12 13:56:13 1421

原创 Focal Loss 分类问题 pytorch实现代码(简单实现)

ps:由于降阳性这步正负样本数量在差距巨大.正样本1500多个,而负样本750000多个.要用Focal Loss来解决这个问题.首先感谢Code_Mart的博客把理论汇总了下https://blog.csdn.net/Code_Mart/article/details/89736187.并实现了Focal Loss的二分类和多分类的代码并讲解.同时他与xwmwanjy666的讨论更讲清楚了...

2019-06-11 18:19:20 15108 31

原创 3Dunet 降假阳性模型预处理

ps前段时间一直在将肺结节检测和3Dcnn降阳性模型封装到一起.输入一个检查输出检测结果插入数据库.同时编写接口供前端和中间件调用.可检测结果的去假阳性这步还是不太令人满意.故再用3Dunet 降假阳性模型联合3Dcnn降阳性模型一起去假阳性.  由于想获取32*32*32的块(分辨率1*1*1mm),故需要重采样.但是luna16中给的candidates_V2.csv有70多万个候选结节....

2019-06-05 17:03:25 1833 38

深度学习超分辨率代码

使用对抗生成网络,来实现超分辨率。使用imagenet的部分数据。摒弃了用均方误差和信噪比来优化参数。

2018-09-04

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除