自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(144)
  • 收藏
  • 关注

原创 Single-Domain Generalized Object Detection in Urban Scene via Cyclic-Disentangled Self-Distill阅读笔记

Cyclic-Disentangled Self-Distillation

2022-07-10 17:49:25 1423 1

原创 PKD: General Distillation Framework for Object Detectors via Pearson Correlation Coefficient阅读笔记

PKD论文笔记

2022-07-09 12:08:50 1330 2

原创 DN-DETR: Accelerate DETR Training by Introducing Query DeNoising阅读笔记

DN-DETR阅读笔记

2022-04-15 10:54:58 1391

原创 DAB-DETR:Dynamic Anchor Boxes Are Better Queries for DETR阅读笔记

DAB-DETR阅读笔记

2022-03-18 19:21:37 6612 1

原创 A ConvNet for the 2020s论文阅读笔记

ConvNeXt阅读笔记(一) Title(二) Summary(三) Research Object(四) Problem Statement(五) Method(六) Experiments6.1 ConvNeXt结构设计6.2 ImageNet实验6.3 目标检测任务和分割任务中的表现(七) Conclusions(八) Questions(一) Title论文地址:https://arxiv.org/abs/2201.03545代码地址:https://github.com/facebook

2022-01-19 15:45:34 3229

原创 旋转框resize中存在的问题

旋转框采用的表示方式为:(a)长边表示法longside format: x_c y_c longside shortside Θ参数介绍:x_c与y_c:旋转矩形框的中心坐标;longside: 顾名思义,最长的边;shortside:与longside对应的另一条边;Θ: 最长边到x轴逆时针旋转的夹角,逆时针方向角度为负 ,Θ∈[-180, 0)。经过然后对图片进行resize之后,边界框的位置发生了变换,不能够同原始图像对应上,下面.

2022-01-14 17:05:11 2072 1

原创 AutoSlim: Towards One-Shot Architecture Search for Channel Numbers阅读笔记

AutoSlim阅读笔记(一) Title(二) Summary(三) Research Object(四) Problem Statement(五) Method5.1 搜索通道数整体方案5.2 Slimmable Networks的训练5.3 Greedy Slimming(六) Experiments(七) Conclusion(八) Notes8.1 得到最优的Channel Numbers的方法(一) Title论文地址:https://arxiv.org/abs/1903.11728代码

2021-12-29 15:23:50 1979 1

原创 Channel-wise Knowledge Distillation for Dense Prediction阅读笔记

Channel-wise KD阅读笔记(一) Title(二) Summary(三) Research Object(四) Problem Statement(五) Method5.1 spatial distillation5.2 Channel-wise Distillation(六) Experiments6.1 实验设置6.2 和最近knowledge Distillation方法相比6.3 消融实验6.4 目标检测任务(七) Conclusion(八) Notes8.1 Dense Predict

2021-12-28 17:16:03 3172 2

原创 Gaussian Bounding Boxes and Probabilistic Intersection-over-Union for Object Detection阅读笔记

ProbIoU论文阅读笔记

2021-12-21 15:57:53 691 1

原创 Deformable DETR:Deformable Transformers for End-to-end object detection笔记

(一) 本文需要解决的问题DETR具有slow convergence以及limited feature spatial resolution原始的DETR模型存在的问题:训练时间长,需要500个epoch才能够收敛对小目标检测能力相对较弱在初始化时,Attention modules接近是均匀分布,需要长时间的训练才能将其转变为sparse meaningful locationsattention weight这边的权重计算是二次复杂度的,对于高分辨率图来说是高计算和高内存消耗的。De

2021-12-04 20:25:34 3175

原创 TransTrack: Multiple Object Tracking with Transformer论文阅读笔记

(一) Title论文地址:https://arxiv.org/abs/2012.15460代码地址:https://github.com/PeizeSun/TransTrack前言: 本文建立了一种novel joint-detection-and-tracking模型,在一个框架中完成目标检测和跟踪。这是首篇将Transformer引入到MOT任务中(二) Summary研究背景目前MOT中主要有两种方式:tracking-by-detection以及joint-detection-an

2021-11-30 16:02:47 3115 3

原创 FCOSR: A Simple Anchor-free Rotated Detector for Aerial Object Detection阅读笔记

(一) Title论文地址:https://arxiv.org/abs/2111.10780项目地址:https://github.com/lzh420202/FCOSR(二) Summary研究背景:现有的基于anchor-based方法的旋转框检测算法需要手动设置预设框,引入了额外的超参数和计算。基于anchor-free的方法通常具有复杂的体系结构,不容易部署。本文方法:本文提出了一个一阶段的带有角度旋转的检测框架FCOSR,一看就是基于FCOS架构,并且将二维高斯分布也引入进来

2021-11-26 21:26:57 4730 2

原创 Oriented Object Detection with Transformer阅读笔记

(一) Title前言: 本文没有开源,但是最近我有实现一个基于Transformer的Detector的想法,因此还是决定看下这个论文,然后再基于DETR构建一个基于Transformer的旋转框目标检测方法,怎么说呢?公式里的每一个符号我都能看懂,但是合到一起就看不懂了,而且看完这个论文的感受很不好,有太多疑问了,希望之后能够开源代码吧。论文地址:https://arxiv.org/abs/2106.03146代码地址:没开源(二) Summary背景DETR相比于传统的detector

2021-11-19 17:24:17 2909

原创 MOTR: End-to-End Multiple-Object Tracking with TRansformer阅读笔记

(一) Title论文地址:https://arxiv.org/abs/2105.03247代码地址:https://github.com/megvii-model/MOTR前言:最近有幸看了几篇MOT的工作,感觉目前MOT的工作有一些集中将循环神经网络引入来构建对轨迹的预测,从而实现对遮挡情况的处理,提升性能。然而我自己没有仔细研读过Transformer相关的论文,希望以此为契机,开启循环神经网络在视觉领域的研究。(二) Summary当前存在的问题:多目标跟踪任务之前的做法中,往往是基

2021-11-17 20:00:27 2325 1

原创 Recurrence along Depth: Deep Convolutional Neural Networks with Recurrent Layer Aggregation阅读笔记

(一) Title论文地址:https://arxiv.org/abs/2110.11852(二) Summary研究背景本文内容本文进一步探讨了layer aggregation的问题,使得previous layer的信息能够更好地服务于current layer的特征提取。通过引入recurrent layer aggregation(RLA),充分利用CNNs layers的顺序结构,帮助学习图像中的structural information.(三) Research Obje

2021-11-12 22:27:57 3565 8

原创 Learning to Track with Object Permanence阅读笔记

Learning to Track with Object Permanence阅读笔记(一) Tilte(二) Summary(三) Research Object(四) Problem Statement(五) Method5.1 CenterTrack框架5.2 将pairs frame扩展到video-level model5.3 怎么在完全遮挡情况下进行跟踪呢?5.4 怎么处理真实数据和生成数据之间的gap(六) Experiments6.1 数据集+评价指标6.2 实验设置6.3 消融实验6.3

2021-10-26 21:37:49 2244 1

原创 ByteTrack: Multi-Object Tracking by Associating Every Detection Box阅读笔记

(一) Title论文地址:https://arxiv.org/pdf/2110.06864.pdf代码地址:https://github.com/ifzhang/ByteTrack前言:截止20211019在MOT17上为SOTA,刚刚看源码的时候被项目的详细程度惊艳到了,而且猛然发现本作一作也是原来FairMOT的一作,不愧是大佬啊,忒强了(二) Summary背景介绍MOT的任务是estimating bounding boxes and identities of objects。从

2021-10-23 21:49:37 1435 17

原创 Alpha-Refine: Boosting Tracking Performance by Precise Bounding Box Estimation阅读笔记

(一)Title前言:提高tracker的性能,即插即用,无需训练,数据结果表现强劲,????啊。(二) Summary研究背景:目前trackers通过采用多阶段策略改善bounding box估计质量,不过目前方法存在的问题是:limited precisionthe coupling of different stages severely restricts the method‘s transferability本文提出方法提出Alpha-Refine模块,用于提升边界

2021-09-29 14:28:14 718

原创 GMOT-40: A Benchmark for Generic Multiple Object Tracking速读笔记

(一)Title前言: 这篇文章中提到GMOT和MOT并不是相同的内容,因此,这篇文章并不是关注的重点。代码: https://github.com/Spritea/GMOT40(二)Keypoints问题:现有的研究需要跟踪目标(比如行人)的先验知识,不能很好地推广到未见过的类别上(这个问题让我感到很迷惑,不知道下面introduction有没有介绍)。而General Multiple Object Tracking(GMOT)需要很少的关于目标的先验信息(这里的第二个疑问就是GMOT和M

2021-07-01 23:44:16 1463

原创 Alpha-Refine: Boosting Tracking Performance by Precise Bounding Box Estimation速读笔记

(一)Title前言: 准备开启跟踪的工作了,再不做就毕不了业了,先做文献阅读啦拉啦,欧耶!就是干!论文地址:https://arxiv.org/abs/2007.02024代码地址: https://github.com/MasterBin-IIAU/AlphaRefine关键点:multiple base trackers(二) Summary研究现状及问题:最近的trackers采用multiple-stage strategy来改善边界框estimation,这些方法首先粗略地

2021-07-01 22:41:39 1093 2

原创 Temporal Shift Module for Efficient Video Understanding速读笔记

(一)Title前言: 这篇文章看了之后,相对于双流,slow fast,时序建模不需要增加额外的计算复杂度,也不需要进行3D卷积。模型部署的成本较低,同时性能较好,真不戳!!!(二) Keypoints现有方法存在的问题3D CNN方法性能好,但是计算量很大,部署成本太高。解决方法:提出Temporal Shift Module(TSM)模块能够达到3D CNN的性能,同时保持了2D的复杂性。TSM的核心思想是:shift part of the channels along t

2021-07-01 18:03:43 360

原创 SlowFast Networks for Video Recognition速读笔记

(一) Title(二) KeyPoints提出结合使用slow pathway和fast pathway。slow pathway 慢帧率,主要关注空间信息从图像或者稀疏的帧中提取语义信息fast pathway减少通道数,lightweight,快帧率,更多地关注动作随时间的变化信息时间速率很快,轻量级,较弱的处理空间信息的能力。不需要temporal pooling快慢结合带来了检测结果上的提升。(三) Method本文主要包括3部分内容,首先是slow pathw

2021-07-01 17:06:25 168

原创 Attention is all you need阅读笔记

(一) Title前言:我又来看老论文了,Transformer去年就在图像领域很火了,当时没有怎么了解这方面的内容,想着有时间的话,看看这方面的内容,要跟得上发展的步伐才行啊!首先先整理下Transformer原始论文中的内容(课上讲过),但是遗忘太多了。打算重新整理下再!(二) Summarydominant sequence transduction models(显性序列显性转导模型)往往基于复杂的循环神经网络,或者卷积神经网络。并且包含着一个编码器和一个解码器。而注意力机制在编码器和解码器

2021-04-04 22:04:02 628 1

原创 python使用动态规划求解最长回文子串

其实动态规划的代码还是很好写的。只要弄清楚状态转移方程,还有状态更新的顺序即可class Solution: def longestPalindrome(self, s: str) -> str: # dp[i][j] 表示是否为最长回文子串, # dp[i][j] = dp[i+1][j-1] or j-i < 2 if s[i] == s[j] # = false if !

2021-04-01 16:04:45 252

原创 Towards Real-Time Multi-Object Tracking(JDE)论文阅读笔记

(一)Title前言:从之前的文献中,大致了解到这篇文献是在YOLOv3的基础上进行的跟踪任务,我们希望能够基于YOLOv3做一部分的跟踪工作,因此,打算对当前的论文记录一个阅读笔记。论文地址:https://arxiv.org/pdf/1909.12605v1.pdf代码地址:https://github.com/Zhongdao/Towards-Realtime-MOT数据集地址:https://github.com/Zhongdao/Towards-Realtime-MOT/blob/m

2021-02-02 17:36:21 851 2

原创 YOLO格式标注数据转COCO标注数据

这里仅仅考虑person类别,如果考虑其他类别,则需要增加类别信息,稍作调整即可。import jsonimport osimport imagesizeimport copydef txt_to_json(img_dir,annotation_dir,json_path,img_format='.jpg',annotation_format='.txt'): # json 文件主要两项内容 json_dict = dict() annotations = list()

2021-01-29 11:31:23 643 1

原创 deformable conv相关知识整理

起因我们希望能够将深度学习模型移植到嵌入式平台上,但是目前存在的问题是:在我们将要移植的嵌入式平台上是不支持deformable conv的,因此,需要对deformable conv进行替换,然而,我对于这个deformable conv不了解,因此,打算整理下deformable conv的相关内容。deformable conv对应论文:Deformable Convolutional Networks看了两篇文章之后,大概了解了deformable conv DCN干了点啥:其

2021-01-27 20:28:22 423

原创 A Simple Baseline for multi-object Tracking(FairMOT)论文阅读笔记

FairMOT论文笔记(一)Title(二)Summary(三)Research Obejct(四)Problem Statement(五)Method5.1 backbone5.2 Object Detection Branch5.3 Identity Embedding Branch5.4 Loss Functions5.5 在线跟踪(六)Experiment6.1 数据集6.2 实现细节实验1实验2 Multi-Layer Aggregation的影响实验3 对Re-ID特征维度的选择实验4 和Sta

2021-01-26 14:50:23 434 1

原创 Distance-IoU Loss: Faster and Better Learning for Bounding Box Regression阅读笔记

(一)Title前言:(二)Summary背景概述目标检测中的bounding box回归任务往往采取的方式借助损失去回归bounding boxes的参数(位置/长/宽),但是它并不适用于评估度量(Intersection over Union,IoU)。同时作者指出当前研究者提出的IoU度量(IoU Loss 以及 Generalized IoU Loss)上存在的一些问题:收敛慢slow convergence回归不准确,inaccurate regression主要内容作者在

2020-12-29 22:44:31 559

原创 Generalized Intersection over Union: A Metric and A Loss for Bounding Box Regression阅读笔记

(一)Title前言:杠杆(二)Summary(三)Research Object(四)Problem Statement(五)Method(六)Experiments(七)Conclusion(八)Notes

2020-12-29 11:37:31 335

原创 什么是GIoU Loss?

首先我们给出论文中关于GIoU的算法叙述计算GIoU的算法过程图示说明这里我们按照GIoU算法过程进行讲解:首先绿色框表示的BpB^pBp,黑色框表示的是BgB^gBg,首先计算IoU和我们熟知的方式相同:IoU=IUI o U=\frac{\mathcal{I}}{\mathcal{U}}IoU=UI​其中III表示上图中的灰色阴影部分,UUU表示的是两个矩形面积之和Ap+AgA^p+A^gAp+Ag去掉两个矩形相交面积III,因此IoU的表示可以用下式:IoU=IU=IAp+Ag

2020-12-22 09:32:49 2874

原创 Training-Time-Friendly Network for Real-Time Object Detection论文笔记

(一)Title论文地址:https://arxiv.org/abs/1909.00700代码地址:https://github.com/ZJULearning/ttfnet前言:Light-head,anchor-free,single-stage,TTFNet,作者在文中不断提及encode training samples plays a similar role as increasing the batch size,(二)Summary为了取得训练时间、推理速度以及精度之间的平衡,作

2020-12-18 11:26:25 305 5

原创 Generalized Focal Loss V2利用分布统计特征估计定位质量

(一)Title论文地址:https://arxiv.org/abs/2011.12885代码地址:https://github.com/implus/GFocalV2前言:GFLv1文章名:Generalized Focal Loss Learning Qualified and Distributed Bounding Boxes for Dense Object Detection。(二)Summary目前Localization Quality Estimation(LQE)在目标检测中

2020-12-16 09:56:13 961 1

原创 PIoU Loss: Towards Accurate Oriented Object Detection in Complex Environments论文笔记

PIoU Loss论文阅读(一)Title(二)Summary(三)Research Object(四)Problem Statement(五)Method5.1 Pixels-IoU(PIoU) Loss(六)Experiment6.1 实验细节6.2 Ablation Study6.3 Benchmark(七)Conclusion(八)Notes8.1 现有的OBB角度回归做法以及我们的做法8.2 Retail50K 数据集介绍(一)Title前言:作者改变前人在进行OBB回归时,使用水平anch

2020-12-15 15:44:57 279 2

原创 IoU-aware single-stage object detector for accurate localization论文阅读笔记

(一)Title(二)Summary作者指出目前single-stage检测器存在的问题:classification score和localization accuracy之间的低相关性使得模型性能无法得到提升,为了解决这个问题,提出了IoU-aware single-stage object detector,核心做法是:对每一个预测的bounding box,同时预测一个IoU,然后用这个IoU乘上classification score作为最终的检测置信度,使用这个检测执行度来进行后续的

2020-12-14 16:28:18 414 2

原创 Generalized Focal Loss Learning Qualified and Distributed Bounding Boxes for Dense Object Detection

(一)Title(二)SummaryOne-stage检测器将目标检测形式化为dense classification和localization。分类通常通过Focal Loss进行优化,bounding box的定位通常利用狄拉克δ分布进行学习。One-stage检测器的最新趋势是引入an individual prediction branch(单独的预测分支)来帮助分类,从而提升检测性能。作者在实践过程中发现了两个问题:在训练和推断阶段,质量评估和分类使用的不一致(即,单独训练但在测试中复

2020-12-11 16:43:38 548

原创 C++ vector(STL)初始化

vector<vector> visited(m, vector(n,0)); 初始化一个m行n列全部为false的vector

2020-12-08 17:01:04 178

原创 tqdm pbar.set_postfix使用

参考代码来自https://blog.csdn.net/qq_32464407/article/details/81113373# -*- coding: utf-8 -*- from tqdm import tqdmfrom collections import OrderedDict total = 10000 #总迭代次数loss = totalwith tqdm(total=total, desc="进度条") as pbar: for i in range(total):

2020-12-08 10:01:16 14841

原创 End-to-End Object Detection with Fully Convolutional Network阅读笔记

End-to-End Object Detection with Fully Convolutional Network阅读笔记(一)Title(二)Summary(三)Research Object(四)Problem Statement(五)Method5.1 Prediction-aware One-to-one Label Assignment5.2 3D Max Filtering5.3 Auxiliary Loss(辅助损失)(六)Experiment6.1 label assignment A

2020-12-07 22:43:41 3071 2

原创 CMake,Make区别

这里用我们自己的例子来说明:我在安装caffe时,里面存在的文件包括:CMakeLists.txt,Makefile.config,Makefile,这里应该是存在着两种安装方式,第一种是直接安装make all -j8.第二种是mkdir build,cd build,cmake …,make all -j8.第二种方式使用cmake,是将CMakeLists.txt转成make所需的makefile文件的。CMake是一种跨平台编译工具,比make更为高级,使用起来要方便得多。CMake主要是

2020-12-01 17:33:00 3526

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除