自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(25)
  • 收藏
  • 关注

原创 Real-time self-adaptive deep stereo

这是一篇实时的双目视觉立体匹配的文章(2019 CVPR)提出的问题:现实数据集分布和训练数据集分布有极大的不同(真实vs虚拟数据集),且收集真实常见的视差图gt的成本高。解决方案:提出一种无监督,在线适应的无监督的双目网络。将自适应作为一种连续学习的过程来解决域偏移问题(分布异同),从而使得视差估计网络再实施部署过程中根据收集的图片进行在线推演。主要讲的不是网络结构,而是领域自适应对网络的...

2020-01-06 11:02:11 1174 2

转载 图像局部特征点检测算法综述

图像局部特征点检测算法综述

2019-10-01 21:05:24 379

转载 PCL:三维计算视觉研究内容概述

三维计算视觉研究内容包括:  1)三维匹配:两帧或者多帧点云数据之间的匹配,因为激光扫描光束受物体遮挡的原因,不可能通过一次扫描完成对整个物体的三维点云的获取。因此需要从不同的位置和角度对物体进行扫描。三维匹配的目的就是把相邻扫描的点云数据拼接在一起。三维匹配重点关注匹配算法,常用的算法有最近点迭代算法 ICP和各种全局匹配算法。    ...

2019-10-01 16:57:25 653

转载 OpenCV实现SfM

OpenCV实现SfM(一):相机模型OpenCV实现SfM(二):双目三维重建OpenCV实现SfM(三):多目三维重建

2019-09-30 11:01:31 3090

翻译 SFM 与MVS的区别

参考问题Structure from Motion(SFM)Multi View Stereo(MVS)使用开源工具pipeline:Bundler(SFM) -> CMVS(MVS) -> PMVS2(MVS)回答:sfM 和MVS两者互补,它们基于不同的假设。且他们的输入也不相同。sfM: (bundler, VisualSFM, OpenMVG)input: 一组...

2019-09-30 10:26:49 17084

翻译 Adaptively Connected Neural Networks

Adaptively Connected Neural NetworksintroductionCNN对比MLP的缺点:由于只从像素的周围像素抽象出信息,所以每一层的CNN缺乏global inference的能力。(实际应用中,CNN通过堆叠大量的局部卷积操作老i获取全局推断的能力,但又具有计算无效率,优化困难,消息传递效率低等限制。)解决CNN局部性的问题,有non-local net...

2019-05-07 11:52:58 1920 4

转载 数据集介绍

1,图像分类(CLS),目标定位(LOC),目标检测(DET),视频目标检测(VID),场景分类: imageNet数据集2,图像分类(CLS):CIFAR-10/CIFAR-100 数据集3,目标检测(DET),目标之间的上下文关系,目标定位(LOC),实例分割。COCO数据集...

2019-04-24 14:34:15 1389

转载 一些有用的笔记

How to solve the problem of `RuntimeError: all tensors must be on devices[0]pytorch系列 --4 pytorch 0.4改动后Variable和Tensor合并问题data和.detach

2019-03-13 09:00:34 245

原创 Confidence Inference for Focused Learning in Stereo Matching 论文笔记

论文地址:https://arxiv.org/pdf/1809.09758.pdf这篇文章讨论了一种在立体匹配中无监督的置信推断的方法。(所谓的无监督,不是不存在视差图的groundtruth,而是不存在confidence map的groundturth。确实有点奇怪。)DNN在深度估计中已经达到了前沿的效果,但是,通常很难判断训练的模型是做出合理的预测还是随意猜测。作者从立体匹配中L1的概...

2019-03-05 21:48:58 375

原创 Deep Layer Aggregation笔记

论文地址:https://arxiv.org/pdf/1707.06484.pdfgithub地址:https://github.com/ucbdrive/dla摘要:提出了对特征图的compounding和aggregation可以改善特征图中是什么(what)和在哪里(where)的推断。(读者理解:在CBAM中,作者通过注意力机制,也是对what和where的研究。)所以如何最好地a...

2019-03-04 23:20:27 1252

原创 Batch Normalization:Accelerating Deep Network Training by Reducing Internal Concariate Shift《》

internal covariate shift:由于训练过程中网络参数的变化,导致网络内部激活层分布的变化。这种思想的由来:1,统计机器学习中有一个经典的假设:训练数据和测试数据是满足相同分布的。covariate shift:训练集的样本数据分布变化时,训练得到的模型无法很好的Generalization。2,在神经网络中的各输出层可以作为下一层的输入层,也就是输出层可以作为训练数据,...

2018-10-18 16:04:33 2371

原创 local expansion

local expansion解读 1.graph cut(分成前景和背景) 2.Alpha-expansion(分成多个平滑平面) 3.local-expansiongrab cut主要目的:通过在前景和背景各画几画作为输入,将建立各个像素点与前景背景相似度的赋权图,通过求解最小切割区分为前景和后景。图的定义 顶点集V,边集E,图G可以定义为有序对G=(...

2018-09-08 10:16:34 1061 1

转载 EM算法总结

EM算法(Expectation-Maximum)算法。1,要解决的问题在一些情况下,我们得到的观察数据有未观察到的隐含数据,此时我们有未知的隐含数据和模型参数,因而无法直接用极大化对数似然函数得到模型分布的参数。怎么办呢?这就是EM算法可以派上用场的地方了。算法思路假设未知的隐含数据为z,模型参数为θθ\theta。 已知的输入数据为: x=(x(1),x(2),.....

2018-04-19 11:20:21 534

转载 Batch normalization

传统的神经网络,只是在将样本x输入输入层之前,对x进行标准化处理(减均值,除标准差),以降低样本间的差异性。BN是在此基础上,不仅仅只对输入层的输入数据x进行标准化,还对每个隐藏层的输入进行标准化。传统方法Batch Normalization BN 使用(小)批计算的均值和方差对特征进行归一化,以简化优化使非常深的网络能够融合。批量统计的随机不确定性也可以作为一个正...

2018-04-16 16:15:27 147

原创 解析卷积神经网络(部分笔记)(未完成)

先验知识: 快速傅立叶变换 第二章: 概念: loss function = data loss + regulation loss 三维张量:xl∈RHl∗Wl∗Dl" role="presentation" style="position: relative;">xl∈RHl∗Wl∗Dlxl∈RHl∗Wl∗Dlx^l \in R^{H^l*

2018-01-28 11:00:22 390

转载 聚类方法总结

层次聚类 k-means聚类 谱聚类

2018-01-23 10:54:05 228

转载 1.2集成学习——GBDT

背景知识: 回归树 D=(x1,y1),(x2,y2),...(xN,yN)D={(x_1,y_1),(x_2,y_2),...(x_N,y_N)} 选择第j个变量x(j)x^{(j)}和它取的值s,作为切分变量和切分点,假设已将输入空间划分为M个单元R1,R2...,RMR_1,R_2...,R_M, 并且在每个单元RmR_m上有一个固定的输出值cmc_m ,于是回归树模型可表示为f(x)

2018-01-22 15:35:58 225

转载 集成学习——总结

1,继承学习概述 对于训练集数据,通过训练若干个个体学习器,通过一定的结合策略,就可以最终形成一个强学习器。 2,集成学习之个体学习 种类: 同质的:强依赖性:(boosting)弱依赖性:(bagging,随机森林) 异质的:多个不同的学习器 3,集成学习之boosting(强依赖性) Boosting算法的工作机制是首先从训练集用初始权重训练出一个弱学习器

2018-01-22 15:31:14 461

转载 1.1集成学习——adaboost

问题: 1,如何计算误差率e; 2,如何得到弱学习器权重系数a; 3,如何更新样本权重D; 4,使用何种结合策略;一,adaboost算法的基本思路 训练集样本: T=(x1,y1),(x2,y2)....(xm,ym)\begin{eqnarray*}T = {(x_1,y_1),(x_2,y_2)....(x_m,y_m)}\end{eqnarray*} 训练集的第k个弱

2018-01-22 15:24:46 182

原创 采样方法

一,采样方法 1,接受-拒绝抽样 2,重要性抽样 3,MCMC(马尔可夫链蒙特卡洛方法):metropolis-hasting算法和它的特例Gibbs采样算法一,随机模拟的基本思想 1,求不规则面积: a,分割计算 b,我们抓一把黄豆,把它们均匀地铺在矩形区域,如果我们知道黄豆的总个数S,那么只要我们数数位于不规则区域M中的黄豆个数S1,那么我们就可以求出M的面积:M=S1∗R/S

2018-01-22 15:22:45 5402

原创 滤波器

本文主要介绍三种我最近常用的滤波器,并且添加一些对滤波器的认识。高斯滤波器双边滤波器引导滤波1,高斯滤波器高斯滤波器只考虑位置信息,即中心点的像素和周围点像素之间的权重,只和位置有关,位置越远,则像素权重越低。当然,高斯滤波器会事先选定窗口大小(3 * 3, 5 * 5),中心像素只考虑窗口内的像素信息。 权重公式:Wij=1Kiexp(−|xj−xi|2σ2)W_{ij

2018-01-18 15:42:20 803

翻译 pixel net(未完成)

abstract 我们探索关于一般像素级预测问题的方法,从低水平的边缘预测,到中水平的表面预测,到高水平的语义分割。例如fully-convolutional network(FCN)这类的卷积预测,通过卷积过程处理相邻像素的的空间冗余,已经实现了显著性的成功。虽然计算效率很高,由于空间冗余限制了在相邻像素间的信息获取,所以我们指出这样的方法不具有统计性效率。我们指出对像素的分层采样需要允许。

2018-01-11 15:02:21 471

转载 hard negative mining

【1】对于目标检测中我们会事先标记处ground truth,然后再算法中会生成一系列proposal,这些proposal有跟标记的ground truth重合的也有没重合的,那么重合度(IOU)超过一定阈值(通常0.5)的则认定为是正样本,以下的则是负样本。 【2】然后扔进网络中训练。However,这也许会出现一个问题那就是正样本的数量远远小于负样本,这样训练出来的分类器的效果总是有限的,

2018-01-08 14:48:26 612

原创 准确率(accuracy)召回率(recall)精确率(precision)的含义

_

2017-12-26 21:12:56 5601 3

原创 R-CNN,Fast R-CNN,Faster R-CNN learning

RCNN基础背景: 【1】selective search 将n个预分割的区域,通过多种策略(多个判定标准),使用层次聚类的思想,将区域合并成需要的区域个数(2k~3k)【2】SVM:(支持向量机) 通俗来讲,它是一种二类分类模型,其基本模型定义为特征空间上的间隔最大的线性分类器,即支持向量机的学习策略便是间隔最大化,最终可转化为一个凸二次规划问题的求解。【3】hard nega

2017-12-26 20:47:16 225

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除