自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(93)
  • 问答 (1)
  • 收藏
  • 关注

原创 mmdetection训练自己的数据

上篇文章提到了mmdetection的配置并且测试好啦。下面关于如何train我们自己的数据。主要讲一下一些改动原配置文件的问题,毕竟mmdetection开源的时间不长,还是在不断更新的。官方建议自己的数据在mmdetection目录下创建data目录,以coco数据格式为例吧。mmdetection├── mmdet├── tools├── configs├── data...

2019-01-09 14:22:37 21312 38

原创 yolov3-tiny的训练

yolov3-tiny   其实训练过程与之前的yolov3是一样了 主要当时找weight跟预训练的卷积层weight找了好久在这里把链接贴上:先是获得训练好的yolov3-tiny的权重用来test:wget https://pjreddie.com/media/files/yolov3_tiny.weights然后获得卷积层的权重用来训练自己的数据:...

2018-12-23 14:38:55 24123 6

原创 yolov3 测试自己的数据

train完数据之后下面把测试的过程记录下吧,train结束后会在backup文件夹中有对应最终的yolov3_final.weights(如果你没改源码的情况下)。darknet提供了用于评估模型的三个命令,即./darknet detector  test cfg/coco.data cfg/yolov3.cfg backup/yolov3_final.weights data/do...

2018-12-21 14:59:16 3227 1

原创 yolov3 训练自己的数据(coco数据制作篇)

在GPU版本配置ok之后下面就要看制作自己的数据了。我们的dataset是coco格式的,如果是voc格式的其他教程大多都是voc的吧。记录下coco格式的数据制作。因为yolov3最终要将图片位置信息与图片的label信息保存在txt文件里的,所以现在首先要做的就是解析coco格式的json文件啦。(coco目标检测数据集标注目标信息采用的是数据格式是json,其内容本质是一种字典结构,...

2018-12-19 10:59:13 22590 26

原创 FCOS Pytorch 复现

https://github.com/ChingHo97/FCOS-PyTorch-37.2AP复现不易 学术使用请点星星并注明引用可以联系我问问题噢

2020-06-28 20:37:00 2428 6

转载 Pytorch-nn.Conv2d中groups参数的理解

class torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True)group参数的作用是控制分组卷积。一句话,输入in_channels被划分为groups组, 每组通道数为in_channels/groups。每组需要重复计算out_channels/(n_channels/groups)次。上https://blog.csdn.n

2020-05-28 17:22:46 3642

原创 还是torch中的optim模块

最近在看BoF中的一些trick,发现在代码实现中有考虑对于参数的weight_decay只对卷积层的权重来进行正则化约束,不对所有参数进行约束,话不多说上代码,以torchvision中定义的resnet18为例import torchvisionimport torch.optim as optimmodel1 = torchvision.models.resnet18()parmas = []params_dict = dict(model1.named_parameters())fo

2020-05-27 11:46:03 480

原创 matplotlib在目标检测中绘制bbox的统一流程

嗯 感觉这块可能以后写检测算法都会用,就总结一下其中一些的API加深记忆吧。目标检测中,我们一般是这样做的,我们定义的NMS方法一般是针对整个batch的,所以对于test集中每个batch的pred经过NMS后会得到这个batch最终的result了,一般是一个list 每个index对应一个(N,7)维的tensor,其中7就是4个坐标 置信度 最大class分数,最大class index(置信度可有可无,但一般都是这些信息)。然后我们要做的就是遍历batch的每一个img,根据每个img的这个N

2020-05-21 21:54:28 4386

原创 目标检测中计算ap的通用策略(以 IoU0.5为例)

原理什么我不过分解读了,下面说的是适合目标检测中的通用ap的evaluate过程。我们知道通用的话,如果不给model喂labels的话,model只会输出对应的预测值,以yolo3为例,我们在三个尺度输出的值叠加后变成[bs,10000+,85]的一个output,那么对于ap的evaluate过程,我认为大家可以理解如下几步:1. 得到每个batch的output后,首先经过NMS处理,得到对应的Positive样本,然后我们需要计算每个batch的Positive是否是True Positiv

2020-05-13 19:19:50 3134

原创 COCO API-COCO模块在det中的应用

COCO的 全称是Common Objects in COntext,是微软团队提供的一个可以用来进行图像识别的数据集。MS COCO数据集中的图像分为训练、验证和测试集。COCO通过在Flickr上搜索80个对象类别和各种场景类型来收集图像,其使用了亚马逊的Mechanical Turk(AMT)。我只讨论det中COCO的使用啦,在det中使用的是COCO的 Objce Instance类...

2020-04-22 20:32:39 2814

原创 COCO API-深入解析cocoeval在det中的应用

因为最近重新回炉深造Det细节了,就对cocoeval源码进行了阅读,发现这部分csdn上也没有很详细的注解,自己看了很久,就顺带写了一下注解吧,希望给看着烦的朋友一点帮助。首先我们了解下cocoeval .py的构成吧。Params类:对于COCO格式的数据检测,我们主要分为不同的IoU阈值,不同的面积范围,单张图片的最大检测数量。在这些不同的参数下,会得到不同的AP与AR。所以...

2020-04-22 20:05:28 15403 16

原创 理解分组卷积与深度可分离卷积

这两种卷积分别是在ResNext论文与MobileNet系列中体现的,貌似Xception中也有深度可分离卷积的体现。作用都很简单,为了降参。目录1. 分组卷积 group convolution2 深度可分离卷积depthwise separable convolution1. 分组卷积 group convolution最早出现分组卷积的是AlexNet,说实话网...

2020-04-09 16:24:50 2857

原创 pytorch optimizer小记

1.最简单情况:opt = optim.SGD(net.parameters(), lr=0.1, weight_decay=0.05, momentum=0.9)查看一下optimizer参数具体情况:print(len(opt.param_groups))会发现长度只有1,是一个只有一个元素的数组,因此,查看一下这个数组第一个元素的情况:for i in opt.param...

2020-04-07 15:46:36 506

原创 python3 Trie树及其应用

关于前缀树基础知识就不介绍了,通俗总结就是从根节点出发,每个节点都有两个属性,一个是这个节点的所有子节点(python3用一个字典记录这个节点所有后续节点即可)和一个标志,标志是否是一个字符串的结束。对于前缀树而言通常需要有查询与插入两种操作。查询的话就是从根节点出发,依次查找根节点的子节点是否有对应的字符,直到字符结束。插入的话也是从根节点出发,依次查找当前节点的子节点是否有对应的字符,有就不需...

2020-03-22 17:12:50 498

转载 Anaconda:The environment is inconsistent, please check the package plan carefully的解决办法

问题描述昨天晚上,打开A...

2020-01-29 22:14:54 6707 1

原创 云服务器安装ubuntu16.04图形化界面并使用VNC控制

mac呢,根据分配的用户名和ip直接通过SSH方式连接上服务器。然后按照以下操作:更新软件库apt-get update升级软件apt-get upgrade安装ubuntu桌面系统apt-get install ubuntu-desktop重启服务器reboot这样已经完成图形化界面,但是只有guest账号,guest账号没什么用,我们需要的是root,我们需要进入服务器后台,...

2020-01-29 16:41:04 1474 1

原创 二分查找万能3种模版

嗯 在看了labuladong哥之前写的一篇文章,结合最近遇到的4种题型,总结一下四种二分查找的模板吧。 链接地址:https://mp.weixin.qq.com/s/uA2suoVykENmCQcKFMOSuQ我是结合大神的模板然后总结出自己的4个屡试不爽的模板吧。给速成的人吃快餐 死记硬背也能完全get解法这是一个万能模板。def binarySearch(n...

2019-12-05 10:04:59 959

转载 交叉熵、相对熵(KL散度)、JS散度和Wasserstein距离(推土机距离)

转自知乎:交叉熵、相对熵(KL散度)、JS散度和Wasserstein距离(推土机距离)写在前面的总结:1、目前分类损失函数为何多用交叉熵,而不是KL散度。首先损失函数的功能是通过样本来计算模型分布与目标分布间的差异,在分布差异计算中,KL散度是最合适的。但在实际中,某一事件的标签是已知不变的(例如我们设置猫的label为1,那么所有关于猫的样本都要标记为1),即目标分布的熵为常数...

2019-10-25 16:47:34 505

原创 生成式与判别式方法及参数估计

https://www.cnblogs.com/jcchen1987/p/4424436.html。高斯判别分析https://blog.csdn.net/yskyskyer123/article/details/98197537马氏距离推导https://www.jianshu.com/p/5706a108a0c6马氏距离解释https://blog.csdn.net/qq_32...

2019-10-22 15:41:26 168

转载 概率解释·局部加权回归·Logistic回归

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本...

2019-10-22 10:46:24 1314

原创 图像复原之约束最小二乘方滤波

图像复原,简单讲,就是恢复图像本来的面貌,但由于各种原因如图像采集过程中出现的误差导致得到的数字图像不清晰,不是我们人眼看到的实物场景那样,因此需要采取技术手段去除图像的不清晰。约束最小二乘方滤波就是其中一种较好的方法。在维纳滤波那一篇讲过,维纳滤波要求未退化图像和噪声的功率谱必须是已知的,通常这两个功率谱很难估计,尽管用一个常数去估计功率谱比,然而并不总是一个合适的解。约束最小二乘方滤波要求噪声...

2019-10-19 10:52:41 4986

原创 频率学派和贝叶斯学派 参数估计

频率学派和贝叶斯学派  频率学派往往通过证据推导一件事情发生的概率,而贝叶斯学派还会同时考虑这个证据的可信度。从参数估计的角度来讲,频率学派认为参数是固定不变的,虽然我们不知道它,但是我们可以根据一组抽样值去预测它的结果,这就有了极大似然估计(MLE)。极大似然估计的思想就是,我已经抽样产生了一组值(例如抛硬币5次,得出结果:正正反正反),那么到底是什么参数(抛一次硬币,正面朝上的概率)才让我...

2019-10-16 15:36:54 369

转载 经验风险最小化ERM

本篇与前面不同,主要内容不是算法,而是机器学习的另一部分内容——学习理论。主要包括偏差/方差(Bias/variance)、经验风险最小化(Empirical Risk Minization,ERM)、联合...

2019-10-16 15:19:52 535

转载 偏差(Bias)与方差(Variance)

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本...

2019-10-16 15:04:44 1478

原创 离散K-L变换

离散K-L变化是特征提取中常用的一种方法,通过正交矩阵将原来高维的数据降维数据压缩。优点:1.离散K-L变化可用于任意概率密度函数分布2.得到的新数据之间是不相关的3.通过最小均方误差得到的新的分布接近原始分布缺点:1.类别越多,计算结果越差。2.需要计算自相关矩阵,如果样本数目过少得到的结果比较粗糙。1.原理:原始模式可以展开为若干个正交向量的线性组合。...

2019-10-02 14:56:28 1959

原创 LMSE-HK算法

H-K算法即通过最小均方误差求解最优权向量的过程,相较感知器算法固定增量的迭代,H-K算法可以在模式线性不可分的情况下停止迭代。那么代价呢就是需要计算高维逆矩阵,????进行分析。对于给定的N个n维模式,如果数据线性可分,则必存在w(n+1维)使得下列成立:将属于ω2的模式乘以(-1),可得对于全部模式都有的条件。设两类模式的训练样本总数为N,写成增广形式,则有不等式组:Xw>...

2019-09-28 11:29:30 5087 1

原创 关于Novikoff定理与感知机算法的收敛性

感知机模型感知机是一种二类分类的线性模型,它是由误分类驱动的,属于判别模型。说白了,它的实质就是输入空间或特征空间中的一个分离超平面。《统计学习方法》中的定义:学习策略假设训练数据集是线性可分的,感知机学习的目标是求得一个能够将训练集正实例点和负实例点完全分开的分离超平面。在这里,损失函数选择误分类点到超平面S的总距...

2019-09-22 20:19:57 621

原创 2019-6-29 LeetcodeDay4(19,20,21,22,26,27,28,35)

19.删除链表倒数第k个节点这个之前在牛客上做过,直接设置双指针啦,第一个指针从链表开头出发,第二个指针从k位置出发,两个指针同时前移只要第二个指针为空就证明第一个指针到了倒数第k个位置咯。注意要设置一个新的起始点链接到head前面然后返回这个起始点的next节点(因为head节点也有可能是倒数第k个位置!)20.有效的括号题意很简单 直接用栈的形式计算即可,全部左括号都入栈,然后遇...

2019-06-29 16:30:55 131

原创 2019-6-28 LeetcodeDay3(8,9,11,12,16,18)

8题string转int,没什么大问题一遍就过了说是中等算是很水的一道题注意点比较多比较坑比如+-2 =-2这种情况。主要一个函数去除string中的空格 s.lstrip(str) 默认空格,当然可以去除其他形式的,只从左边开始去除哦注意str如果是字符串是一个一个字符匹配而不是整个str去匹配。9题回文呢,很简单直接把整数转string 然后切片逆序比较即可,这里说一下官方题解吧感觉挺...

2019-06-29 16:01:20 120

原创 2019-6-27 LeetcodeDay2(7,13,14)

嗯前天晚上肝夜没做题 昨天做的也没总结 今天先把昨天做的总结了7 整数反转嗯这道题比较easy,我直接用字符串切片的方法把数转过来,唯一需要注意的就是要跟大整数pow(2,31)比较,刚开始忘记比较了第一遍没过,然后总结下py3中反转字符串的几种方法把。(1)字符串切片这个方法是最简单的也最容易被人想出来的了,也就是str[start:end:step] ,其中默认取值为[star...

2019-06-28 10:35:26 127

原创 2019-6-25 LeetcodeDay1(1,2,15)

力扣 1 两数之和 2 两数相加 15三数之和

2019-06-25 22:24:14 160

原创 EM算法

https://zhuanlan.zhihu.com/p/39490840EM 最大熵模型。先说适用范围吧,在之前的讨论中,给出样本观测值之后我们直接通过线性回归、logistic回归计算对数似然函数,求导得到参数的值,但是如果其中含有隐变量,那么我们之前的求导方式就存在问题了。EM模型主要就是解决含有隐变量的参数模型的最大似然估计或极大后验概率估计的!在这里需要先有一个先验知识,Jens...

2019-04-27 20:23:17 220

原创 boost之王牌Xgboost

翻了很多blog发现对xgboost大多直接扎入公式推导,xgboost是什么都没有讲清楚,一知半解的。写一篇blog总结一下嘻嘻Xgboost首先先说清楚 Xgboost是多个CART组成的回归树! 这个要搞清楚啊 Adaboost是分类提升,Xgboost是回归提升!那么分类树(决策树)跟回归树的区别哩,通俗来说决策树根据特征信息得到的是标签,回归树得到的是一个值我们可以认为是这个...

2019-04-06 11:14:49 203

原创 烦人的泰勒展开式

初学这个公式的时候应该还是大一上的高数书吧hhh 除了死记硬背并没有去深入理解原理,中间遇到过好几次也没有好好去总结以至于每次都记不熟公式,还是写一篇blog总结理解一下。先po出这个鬼式子这里说一下我理解的为什么要用泰勒展开式吧:对于一些复杂函数我们没有办法去直接求导或者一些函数我们根本不知道它的图像是长什么样子的,但是我们又需要用到这个函数,然后泰勒就想出来了一个方法,让这些函...

2019-04-04 09:56:42 460

原创 Logistic回归

我们都知道,如果预测值y是个连续的值,我们通常用回归的方法去预测,但如果预测值y是个离散的值,也就是所谓的分类问题,用线性回归肯定是不合理的,因为你预测的值没有一个合理的解释啊。比如对于二分类问题,我用{0,1}表示两类,那超出这个区间的预测值的意义是什么呢?所以我们就要引入一种特殊的回归方法,但通常用于分类问题,这就是Logistic回归,我们通过处理,将所有的预测值都限制在0到1以内,其形式...

2019-04-02 13:49:11 182

转载 矩阵特征值与行列式、迹的关系

矩阵特征值与行列式、迹的关系from: http://www.cnblogs.com/AndyJee/p/3737592.html矩阵的特征值之积等于矩阵的行列式矩阵的特征值之和等于矩阵的迹简单的理解证明如下:1、二次方程的韦达定理:请思考:x^2+bx+c=0 这个方程的所有根的和等于多少、所有根的积等于多少...

2019-03-31 10:25:41 29564

原创 特征值分解与奇异值分解原理与计算

(一)特征值如果一个非零向量v是方阵A的特征向量,将一定可以表示成下面形式,而λ是特征向量v对应的特征值:特征值分解是将一个矩阵分解成下面的形式:Q代表这个矩阵A组成的特征向量,Σ是一个对角阵,每一个对角线上的值代表特征向量对应的特征值。求解过程例题:方阵的特征值表示什么含义呢,我们通过一组向量图表示。初始状态下,i(红色)...

2019-03-28 20:53:44 1476

转载 卷积神经网络(CNN)反向传播算法

https://www.cnblogs.com/pinard/p/6494810.html

2019-03-21 15:33:18 853

转载 通俗理解word2vec

独热编码独热编码即 One-Hot 编码,又称一位有效编码,其方法是使用N位状态寄存器来对N个状态进行编码,每个状态都有它独立的寄存器位,并且在任意时候,其中只有一位有效。举个例子,假设我们有四个样本(行),每个样本有三个特征(列),如图:我们的feature_1有两种可能的取值,比如是男/女,这里男用1表示,女用2表示。feature_2 和feature_3各有4种取值(状态)。o...

2019-03-20 10:59:00 263

原创 浅谈计算机视觉中的注意力机制

视觉注意力机制是人类视觉所特有的大脑信号处理机制。人类视觉通过快速扫描全局图像,获得需要重点关注的目标区域,也就是一般所说的注意力焦点,而后对这一区域投入更多注意力资源,以获取更多所需要关注目标的细节信息,而抑制其他无用信息。这是人类利用有限的注意力资源从大量信息中快速筛选出高价值信息的手段,是人类在长期进化中形成的一种生存机制,人类视觉注意力机制极大地提高了视觉信息处理的效率与准确性。计算机...

2019-03-19 16:07:31 8752 2

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除