自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(33)
  • 资源 (46)
  • 问答 (1)
  • 收藏
  • 关注

原创 ORB-SLAM的概念(零基础搞懂)

首先写ORB中的概念一、前端提取包括像素点选取和匹配两部分:1.像素点选取:主要是ORB特征,看看这篇文章就够了:https://blog.csdn.net/maweifei/article/details/62887831   ORB主要有两个概念,角点,还有就是Moment,Moment类似于重心的概念用来表示特征点的方向,在旋转能快速Match。另外特征点确定好后用BREAF确定...

2018-09-14 08:51:41 14100 5

原创 截屏、文字提取一气呵成,超实用OCR开源小工具

项目链接:https://github.com/ianzhao05/textshot使用方法运行 textshot.py,在屏幕上打开一个 overlay,在你希望提取的文字区域画一个矩形。使用可选的命令行参数指定语言。例如,python textshot.py eng + fra 将使用英语作为主要语言,使用法语作为次要语言。默认值为英语(eng)。同时确保为其他语言安装了适用于 Tesseract 的数据文件。建议将热键附加到此工具上。对于 Windows 来说,可以使用 AutoHot

2020-06-10 11:22:41 1156

原创 ORBSLAM2系列课

#视频课程# 更新《ORBSLAM2原理代码详解》系列教程10 视频名称:《ORBSLAM2原理代码详解10-单目初始化中特征匹配角点筛查原理及bug解析》 视频内容:单目初始化中特征匹配时用方向差直方图进行筛选方法,源代码bug错误解析及修正 在线视频地址(已加密): https://v.youku.com/v_show/id_XNDY5MjA3MDU2OA==.ht... 密码:20200530 时长:25分钟 推荐使用优酷手机客户端,可以免费观看1080p 及蓝光视频 之前的视频课程见 置顶第3条,或

2020-05-30 19:12:48 874

原创 聚类方法实现字符和对象分割

首先是头文件。下面文件可以直接编译成DLL。主函数是cluseterMethod。#ifdef MYDLL_EXPORTS#define MYDLL_API __declspec(dllexport)#else#define MYDLL_API __declspec(dllimport)#endif#include <string>#include <vector>#include "opencv2/opencv.hpp"MYDLL_API void cluse

2020-05-30 17:15:54 593

原创 读取图像,多个字符模板匹配

int main__(){ g_srcImage = imread("G:\\1.bmp"); medianBlur(g_srcImage, g_srcImage, 7); threshold(g_srcImage, g_srcImage, 80, 255, 0); medianBlur(g_srcImage, g_srcImage, 7); imshow("原始图像", g_srcImage); if (!g_srcImage.data) {...

2020-05-19 10:50:42 481

原创 文字分割、使用Findcontours找文字区域。

对于下面二值化图像,目标将其中的文字部分提取出来。轮廓提取后矩形框包围文字部分。用Canny算子+findcontour函数可以提取目标的轮廓。然后对矩形进行筛选。轮廓所在的矩形框基本能满足需求,直接上源码:#include <opencv2//opencv.hpp>#include <iostream>#include <string>using namespace cv;using namespace std;#define g_thr.

2020-05-16 13:32:12 846

原创 筛选最大连通域

#include <opencv2/opencv.hpp> #include <opencv2/highgui/highgui.hpp> #include <opencv2/ml/ml.hpp> #include <io.h>#include <direct.h>#include<Windows.h>using namespace std;using namespace cv;/*采用cvFindContour...

2020-05-09 08:10:56 519

原创 【应用】YoloV3检测推理

// Tencent is pleased to support the open source community by making ncnn available.//// Copyright (C) 2018 THL A29 Limited, a Tencent company. All rights reserved.//// Licensed under the BSD ...

2020-04-19 19:52:47 1128

原创 三维重构中图像的纹理和表面特征

最近研究了MVG,要从数万的点云信息中去恢复百倍以上的物体表面像素是更加想象力挑战。GAN实现物体像素的填充,技术的成功想到用深度学习方法去实现像素的添加。那么下面一篇文章中技术实现了。从边缘,流特征去实现。多视角场景点云重建模型PointMVS:http://hansf.me/projects/PMVSNet/参考文章:https://www.sohu.com/a/339951806_6...

2020-03-24 13:34:42 1145

原创 如何正确看待SLAM求职方向。

摘要:高中生而言。VB有如下魅力:1.代码自然易懂 2界面与逻辑清楚 3.学习了VB去理解其它语言的逻辑非常简单。4.初级DIY,VB能快速排上用场。网上都在VB与c语言优劣讨论,诚然,我们不能否定大家的观点,VB相对于现在流行的C、C++、C#、JAVA、HTML5、Python等主流语言是存在很多不足的地方,但是作者认为VB语言仍然有一定的优势。1. 对于初学 …可以为什么我还要继续学习V...

2020-01-12 18:09:04 927

原创 PMVS学习笔记。

PMVS是由Yasutaka Furukawa和Jean Ponce在他们2007年的文章 Accurate, Dense, and Robust Multi-View Stereopsis 中首次提出,并在 http://grail.cs.washington.edu/software/pmvs/pmvs-1/index.html上提供 开源代码(64-bit linux machine...

2019-12-14 16:12:36 3106

转载 利用VR/AR进行建筑设计是一种什么样的体验?

转载:利用VR/AR进行建筑设计是一种什么样的体验?编者按:自虚拟现实(VR)和增强现实(AR)诞生之初,人们就对它们报以极大的关注。VR和AR以其逼真的沉浸感和交互性,被广泛应用于游戏、医疗、设计等诸多领域。当VR/AR与建筑设计相遇,又将带来什么样的新奇效果?来自哈佛大学设计学院的洪玉洁博士近期到访微软亚洲研究院,与我们分享了她在建筑设计领域进行的VR/AR应用探索。以下是演讲实录。...

2019-12-14 15:53:39 1504

转载 vslam优化方法(激光 VS 视觉)

转载https://cloud.tencent.com/developer/article/1436532。最近在做基于激光信息的机器人行人跟踪发现如果单独利用激光信息很难完成机器人对行人的识别、跟踪等功能,因此考虑与视觉融合的方法,这样便可以充分利用激光雷达提供的精确位置信息及视觉提供的丰富纹理、颜色等场景信息。以下是最近调研视觉SLAM中的实现方法的总结,包括三方面内容:姿态计算、闭环检测...

2019-12-14 15:38:33 559

原创 全景图拼接初步

https://jingyan.baidu.com/article/ed2a5d1fa8e56809f6be1715.html如何做到全景快速拼接 VR专业人士必学教程新西兰洛夫斯基0人看过2018-11-16更新热爱全景并从事全景内容制作的朋友一定对全景创作神器——PTgui早有耳闻,今天我们就来教大家如何使用PTgui完成一幅全景照片无死角拼接!方法/步骤1/12 分步阅读打开软...

2019-12-14 15:20:49 420

转载 视觉惯性里程计 综述 VIO Visual Inertial Odometry msckf ROVIO ssf msf okvis ORB-VINS VINS-Mono gtsam

版权声明:博主原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。转载:https://blog.csdn.net/xiaoxiaowenqiang/article/details/81192045视觉惯性里程计 VIO - Visual Inertial Odometry 视觉−惯性导航融合SLAM方案博文末尾支持二维码赞赏哦_视觉惯性SLAM...

2019-12-07 13:53:34 1637

转载 从零开始一起学习SLAM | 理解图优化,一步步带你看懂g2o代码

2019-01-18 09:42理解图优化,一步步带你看懂g2o框架小白:师兄师兄,最近我在看SLAM的优化算法,有种方法叫“图优化”,以前学习算法的时候还有一个优化方法叫“凸优化”,这两个不是一个东西吧?师兄:哈哈,这个问题有意思,虽然它们中文发音一样,但是意思差别大着呢!我们来看看英文表达吧,图优化的英文是 graph optimization 或者 graph-bas...

2019-12-07 11:47:50 216

转载 从零学习SLAM位姿(二)

觉SLAM位姿估计(总结)版权声明:本文为博主原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。转载链接:https://blog.csdn.net/u011178262/article/details/89685134文章目录Features Based Method 2D-2D: Epipolar Geometry 3D-2D: PnP...

2019-12-07 11:24:59 292

转载 从零学习SLAM(位姿图)

https://blog.csdn.net/qq_32618327/article/details/103095538视觉SLAM笔记(55) 位姿图1. Pose Graph 的意义 2. Pose Graph 的优化1. Pose Graph 的意义带有相机位姿和空间点的图优化称为 BA,能够有效地求解大规模的定位与建图问题但是,随着时间的流逝,机器人的运动轨迹将越来越...

2019-12-07 11:11:32 1988

转载 GitHub 上嵌入式方面的项目

GitHub 上有什么嵌入式方面的项目?专注嵌入式软硬件开发~基于STM32G0采用USB type-C供电的开源锂电池充电器,特点:1)STM32G071CBT6微控制器,具有2路type C接口,内置USB Power Delivery PHY。2)LiPow使用USB Type C和Power Delivery为锂聚合物电池充电。它支持2s-4s包的充电和平衡。...

2019-11-28 18:42:37 3077

原创 车载VSLAM与激光雷达方案

基于VSALM在计算机视觉领域的领先技术,提供优异的视觉目标检测功能提供前视视觉感知,环视视觉感知以及APA系统的一站式ADAS功能解决方案基于激光与视觉检测的融合结果,覆盖更为广泛的应用场合从特征点到三维轮廓乃至更高级的带有语义信息的交通标志与车道标记。 在为车辆实时定位提供3D几何信息的同时,这种多层级的3D特征的语义性内容也能够为L4自动驾驶的决策与路径规划打下良好的基...

2019-05-21 14:43:49 1873 1

转载 在无人驾驶中,激光雷达给摄像头填了哪些坑?

转载:本文内容来自速腾聚创 CEO 邱纯鑫在雷锋网硬创公开课的分享,由雷锋网旗下栏目“新智驾”整理。编者按:本文内容来自速腾聚创 CEO 邱纯鑫在雷锋网(公众号:雷锋网)硬创公开课的分享,由雷锋网旗下栏目“新智驾”整理。本期公开课要点: 激光雷达与摄像头性能对比 多线激光雷达----多少线合适? 在无人驾驶环境感知中,摄像头和激光雷...

2019-05-21 14:11:39 1467

转载 图像分割综述【深度学习】

转载 语义分割 在普通分割的基础上,分类出每一块区域的语义(即这块区域是什么物体)。 如把画面中的所有物体都指出它们各自的类别。 实例分割 在语义分割的基础上,给每个物体编号。 如这个是该画面中的狗A,那个是画面中的狗B。 U-NetU-Net原作者官网U-Net是原作者参加ISBI Challenge提出的一种分割网络,能够适应很小的训练集(大约30张...

2019-05-21 13:27:07 1611 1

转载 face recognition[翻译][深度人脸识别:综述]

face recognition[翻译][深度人脸识别:综述]转载这里翻译下《Deep face recognition: a survey v4》.1 引言由于它的非侵入性和自然特征,人脸识别已经成为身份识别中重要的生物认证技术,也已经应用到许多领域,如军事,进入,公共安全和日常生活。FR自然在CVPR会议中也占据了十分长的时间。早在1990年代,随着特征脸的提出[157],FR...

2019-05-01 21:18:34 4285

转载 从零开始学习OpenCL开发(一)架构

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/leonwei/article/details/8880012 多谢大家关注 转载本文请注明:http://blog.csdn.net/leonwei/article/details/8880012本文将作为我《从零开始做OpenCL开发》系列文章的第一篇。1 异构计算、GPGPU与Ope...

2019-01-06 14:00:15 329 3

原创 Ubuntu下百度网盘大文件下载方法

可能很多朋友遇到Ubuntu下无法安装百度网盘,不能下载大文件的坑,分享一个解决方法:sudo apt-get install aria2Firefox插件地址 https://addons.mozilla.org/zh-CN/firefox/addon/baidu-pan-exporter/安装后重启Firefox,然后百度云会出现“导出下载”选项百度网盘分享并复制链接在...

2019-01-06 13:55:24 2726

转载 KCF目标跟踪方法分析与总结

转载:https://www.cnblogs.com/YiXiaoZhou/p/5925019.htmlKCF目标跟踪方法分析与总结correlation filterKernelized correlation filtertracking读"J. F. Henriques, R. Caseiro, P. Martins, J. Batista, 'High-speed tr...

2019-01-04 16:03:47 935

转载 OpenCL:一种异构计算架构

转载 王博博客,https://www.cnblogs.com/wangshide/archive/2012/01/07/2315830.htmlOpenCL:一种异构计算架构目录1 摘要 2 为什么需要OpenCL? 3 OpenCL架构 3.1 介绍 3.2 平台模型 3.3 执行模型 3.3.1 内核 3.3.2 上下文 3.3.3 ...

2018-12-10 15:11:54 299

转载 非常好的文章,SIFT概述

转载:博客园 作者Brook@CV https://www.cnblogs.com/wangguchangqing/p/4853263.html#autoid-3-1-01.SIFT概述SIFT的全称是Scale Invariant Feature Transform,尺度不变特征变换,由加拿大教授David G.Lowe提出的。SIFT特征对旋转、尺度缩放、亮度变化等保持不变性,是一种...

2018-12-10 15:09:40 923

转载 OpenCV 3.3版本发布,加载CAFFE/Darknet深度学习模型

作者:mingo_敏  来源:CSDN  原文:https://blog.csdn.net/shanglianlm/article/details/80030569  版权声明:本文为博主原创文章,转载请附上博文链接!OpenCV 3.3版本发布,对深度学习(dnn模块)提供了更好的支持,dnn模块目前支持Caffe、TensorFlow、Torch、PyTorch等深度学习框架。1 ...

2018-12-07 14:09:59 1357

原创 lsd_SLAM Ubuntu16编译问题集锦

1。/usr/lib/x86_64-linux-gnu/libboost_system.so.1.54.0:-1: error: error adding symbols: DSO missing froboost filesystemboost.filesystem处理目录确实方便,于是本人使用cmake来加载的boost,但使用filesystem出现这一bug。上网g...

2018-03-08 10:11:23 1778 4

原创 Ubuntu opencv3正确的编译安装。

安装/按照下面安装依赖。http://www.cnblogs.com/arkenstone/p/6490017.html这里也给出:安装官方给的opencv依赖包GCC 4.4.x or later CMake 2.6 or higher Git GTK+2.x or higher, including headers (libgtk2.0-dev) # 控制opencv G...

2017-12-12 17:22:39 1848

原创 Caffe编译和图像训练测试

CAFFE程序是用C++写的,Caffe支持Matlab和PYTHON接口1.首先是下载源码https://github.com/BVLC/caffe(官网源码)https://github.com/weiliu89/caffe/tree/ssd(支持SSD)使用CAFFE前建议做以下事情:了解一下CAFFE 的文件结构了解一下神经网络和深度学习原理:了解一

2017-08-04 16:58:41 392

原创 Caffe源文件解释和依赖项

目录结构caffe文件夹下全部文件: 从Caffe-Master中解压缩出所有文件夹主要文件夹data 用于图像LMDB和LEVELDB 文件 docs 帮助文档 example 一些代码样例 ,比如SSD,Squeeze,一般使用DeMO文件运行,将模型和图像文件LMDB放在MODEL和DATA制定路径并编译通过后,运行python demo.py测试。inc

2017-08-04 14:32:15 643

gvim 8.0.281.0

vim 进化版使用于windows,版本 8.0.281.0 ,亲测可用~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~

2017-09-14

caffe2-3rdparty.tar.gz

Caffe2 优秀的开元图像处理架构 第三方包,包括: benchmark-4bf28e611b55de8a2d4eece3c335e014f8b0f630.zip cnmem-28a182d49529da49f4ac4e3941cec3edf16b3540.zip cub-01347a797c620618d09e7d2d90bce4be4c42513e.zip eigen-ae9889a130bd0a9d3007f41d015563c2e8ac605f.zip FP16-2e9eeeb0b463736d13b887d790ac7e72e78fa4bc.zip FXdiv-8f85044fb41e560508cd69ed26c9afb9cc120e8a.zip gloo-530878247b04c423fd35477208f68e70b8126e2d.zip googletest-5e7fd50e17b6edf1cadff973d0ec68966cf3265e.zip ios-cmake-e24081928d9ceec4f4adfcf12293f1e2a20eaedc.zip nccl-2a974f5ca2aa12b178046b2206b43f1fd69d9fae.zip nervanagpu-d4eefd50fbd7d34a17dddbc829888835d67b5f4a.zip NNPACK-02bfa475d64040cd72b7c01daa9e862523ae87da.zip protobuf-a428e42072765993ff674fda72863c9f1aa2d268.zip psimd-0b26a3fb98dd6af7e1f4e0796c56df6b32b1c016.zip pthreadpool-9e17903a3fc963fe86b151aaddae7cf1b1d34815.zip pybind11-f38f359f96815421f1780c1a676715efd041f1ae.zip xware-desktop_0.13.20160328_amd64.deb ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~`

2017-09-14

ffmpeg-3.3.3

( ffmpeg-3.3.3.tar.bz2 解压后编译安装) 1.下载 ffmpeg-*.tar.gz 到 Ffmpeg 官网 https://ffmpeg.org/download.html 挑选你要升级到的版本,然后下载,比如作者下载的是 ffmpeg-2.0.tar.gz。 2.编译安装 (注: 如果执行./configure报yasm错 则下载 yasm-1.3.0.tar.gz 执行 tar zxvf yasm-1.3.0.tar.gz cd yasm-1.3.0 ./configure make && make install) tar -zxvf ffmpeg-2.0.tar.gz cd ffmpeg-2.0 ./configure --enable-shared --prefix=/usr/local/ffmpeg make make install 3.动态链接库 vi /etc/ld.so.conf 加入:/usr/local/ffmpeg/lib 执行 ldconfig 4.为 Ffmpeg 加入环境变量 vi /etc/profile 加入以下内容: FFMPEG=/usr/local/ffmpeg PATH加入:$FFMPEG/bin 5.使修改立即生效 source /etc/profile 执行 ffmpeg -version 打印结果 ffmpeg version 2.0 built on Jul 24 2013 09:59:06 with gcc 4.4.7 (GCC) 20120313 (Red Hat 4.4.7-3) configuration: --enable-shared --prefix=/usr/local/ffmpeg libavutil 52. 38.100 / 52. 38.100 libavcodec 55. 18.102 / 55. 18.102 libavformat 55. 12.100 / 55. 12.100 libavdevice 55. 3.100 / 55. 3.100 libavfilter 3. 79.101 / 3. 79.101 libswscale 2. 3.100 / 2. 3.100 libswresample 0. 17.102 / 0. 17.102 证明已升级成功。如果遇到 ffmpeg: error while loading shared libraries: libavdevice.so.55: cannot open shared object file: No such file or directory 之类的错误,请检查第三步是否做好。

2017-08-23

imageio源码深度学习

imageio-2.2.0.tar.gz 解压后安装。./configure ,阅读readme。

2017-08-23

virtualenv-15.1.0-py2.py3-none-any.whl

Python 虚拟环境工具 virtualenv

2017-08-23

sublime精简版

sublime Text 解压后可使用,适用windows

2017-08-12

Cafffe Master

Caffe源码,携带SSD,Examples,demo.py图像集测试,也可从Github源码下载,https://github.com/weiliu89/caffe/tree/ssd

2017-08-07

IMageNet图像集标注工具

IMageNet 图像集 标注工具 ,多边形标注,支持其他图像集标注。

2017-08-07

caffe2源码

咖啡2 Caffe2 Github20170803

2017-08-07

咖啡二第三方依赖集合下载Caffe2_thirdparty

咖啡二第三方依赖集合下载Caffe2_thirdparty

2017-08-07

LabelImg源码

图像集 标注工具 LabelIMg ,sudo apt-get install pyqt4-dev-tools sudo pipinstall labelimg lableimg完成配置

2017-08-01

Mnist图像数据集

再Caffe上使用 二进制文件 Mnist 图像 数据集

2017-08-01

cifar10-binary-part4.tar.gz

cs.toronto cifar10 图像集 境外下载慢 共4部分,最后一部分。

2017-08-01

cifar10-binary-part3

cifar10 图像集 第三部分

2017-08-01

cifar-10-binary-part2.

cs.toronto cifar10 图像集,共4部分

2017-08-01

cifar10-binary.

从www.cs.toronto.edu下载的文件,境外文件下载慢,提供给大家,放在Caffe根目录,data/cifar10直接使用

2017-08-01

bazel-0.4.4-installer-linux-x86_64.sh压缩卷3

ubuntu 64 位

2017-07-13

bazel-0.4.4-installer-linux-x86_64.sh压缩卷2

ubuntu 64位

2017-07-13

bazel-0.4.4-installer-linux-x86_64.sh压缩卷1

bazel 64位 解压缩文件 双击既可安装

2017-07-13

c++11c++14综述

An-Overview-of-C++11-and-C++14

2017-06-17

opencv_python-4.2.0.34-cp37-cp37m-win_amd64.whl

OpenCV的python版本。python3.8,支持所有x64位机器。使用匹配安装。windows推荐与python3.8配合使用。

2020-06-12

opencv3.4includesLibs无需编译

解压到sln一级目录项目属性 C/C++ 附加包含目录 填写Libs/x86/opencv_v3.4.0/include路径 属性中链接器,所有选项附加库目录填写Libs/x86/opencv_v3.4.0/lib 附加依赖项: opencv_aruco340.lib;f.lib;opencv_bgsegm340.lib;opencv_bgsegm340d.lib;opencv_bioinspired340.lib;opencv_bioinspired340d.lib;opencv_calib3d340.lib;opencv_calib3d340d.lib;opencv_ccalib340.lib;opencv_ccalib340d.lib;opencv_core340.lib;opencv_core340d.lib;opencv_datasets340.lib;opencv_datasets340d.lib;opencv_dnn340.lib;opencv_dnn340d.lib;opencv_dpm340.lib;opencv_dpm340d.lib;opencv_face340.lib;opencv_face340d.lib;opencv_features2d340.lib;opencv_features2d340d.lib;opencv_flann340.lib;opencv_flann340d.lib;opencv_fuzzy340.lib;opencv_fuzzy340d.lib;opencv_highgui340.lib;opencv_highgui340d.lib;opencv_imgcodecs340.lib;opencv_imgcodecs340d.lib;opencv_imgproc340.lib;opencv_imgproc340d.lib;opencv_img_hash340.lib;opencv_img_hash340d.lib;opencv_line_descriptor340.lib;opencv_line_descriptor340d.lib;opencv_ml340.lib;opencv_ml340d.lib;opencv_objdetect340.lib;opencv_objdetect340d.lib;opencv_optflow340.lib;opencv_optflow340d.lib;opencv_phase_unwrapping340.lib;opencv_phase_unwrapping340d.lib;opencv_photo340.lib;opencv_photo340d.lib;opencv_plot340.lib;opencv_plot340d.lib;opencv_reg340.lib;opencv_reg340d.lib;opencv_rgbd340.lib;opencv_rgbd340d.lib;opencv_saliency340.lib;opencv_saliency340d.lib;opencv_shape340.lib;opencv_shape340d.lib;opencv_stereo340.lib;opencv_stereo340d.lib;opencv_stitching340.lib;opencv_stitching340d.lib;opencv_structured_light340.lib;opencv_structured_light340d.lib;opencv_superres340.lib;opencv_superres340d.lib;opencv_surface_matching340.lib;opencv_surface_matching340d.lib;opencv_text340.lib;opencv_text340d.lib;opencv_tracking340.lib;opencv_tracking340d.lib;opencv_video340.lib;opencv_video340d.lib;opencv_videoio340.lib;opencv_videoio340d.lib;opencv_videostab340.lib;opencv_videostab340d.lib;opencv_xfeatures2d340.lib;opencv_xfeatures2d340d.lib;opencv_ximgproc340.lib;opencv_ximgproc340d.lib;opencv_xobjdetect340.lib;opencv_xobjdetect340d.lib;opencv_xphoto340.lib;opencv_xphoto340d.lib;

2020-06-12

tensorflow-2.2.0rc3-cp38-cp38-win_amd64.whl

tensorflow2.2.。使用pip安装。遇到无法下载的资源可以使用拷贝链接。再使用下载工具进行下载。本资源是官方正版,可到官方资源去下载。https://github.com/tensorflow/tensorflow/releases。

2020-06-12

vehicle-speed-check-master.zip

一个监测车辆跟踪的例子 import cv2 import numpy as np import math import matplotlib.pyplot as plt class Hog_descriptor(): def __init__(self, img, cell_size=16, bin_size=8): self.img = img self.img = np.sqrt(img / float(np.max(img))) self.img = self.img * 255 self.cell_size = cell_size self.bin_size = bin_size self.angle_unit = 360 / self.bin_size assert type(self.bin_size) == int, "bin_size should be integer," assert type(self.cell_size) == int, "cell_size should be integer," assert type(self.angle_unit) == int, "bin_size should be divisible by 360" def extract(self): height, width = self.img.shape gradient_magnitude, gradient_angle = self.global_gradient() gradient_magnitude = abs(gradient_magnitude) cell_gradient_vector = np.zeros((height / self.cell_size, width / self.cell_size, self.bin_size)) for i in range(cell_gradient_vector.shape[0]): for j in range(cell_gradient_vector.shape[1]): cell_magnitude = gradient_magnitude[i * self.cell_size:(i + 1) * self.cell_size, j * self.cell_size:(j + 1) * self.cell_size] cell_angle = gradient_angle[i * self.cell_size:(i + 1) * self.cell_size, j * self.cell_size:(j + 1) * self.cell_size] cell_gradient_vector[i][j] = self.cell_gradient(cell_magnitude, cell_angle) hog_image = self.render_gradient(np.zeros([height, width]), cell_gradient_vector) hog_vector = [] for i in range(cell_gradient_vector.shape[0] - 1): for j in range(cell_gradient_vector.shape[1] - 1): block_vector = [] block_vector.extend(cell_gradient_vector[i][j]) block_vector.extend(cell_gradient_vector[i][j + 1]) block_vector.extend(cell_gradient_vector[i + 1][j]) block_vector.extend(cell_gradient_vector[i + 1][j + 1]) mag = lambda vector: math.sqrt(sum(i ** 2 for i in vector)) magnitude = mag(block_vector) if magnitude != 0: normalize = lambda block_vector, magnitude: [element / magnitude for element in block_vector] block_vector = normalize(block_vector, magnitude) hog_vector.append(block_vector) return hog_vector, hog_image def global_gradient(self): gradient_values_x = cv2.Sobel(self.img, cv2.CV_64F, 1, 0, ksize=5) gradient_values_y = cv2.Sobel(self.img, cv2.CV_64F, 0, 1, ksize=5) gradient_magnitude = cv2.addWeighted(gradient_values_x, 0.5, gradient_values_y, 0.5, 0) gradient_angle = cv2.phase(gradient_values_x, gradient_values_y, angleInDegrees=True) return gradient_magnitude, gradient_angle def cell_gradient(self, cell_magnitude, cell_angle): orientation_centers = [0] * self.bin_size for i in range(cell_magnitude.shape[0]): for j in range(cell_magnitude.shape[1]): gradient_strength = cell_magnitude[i][j] gradient_angle = cell_angle[i][j] min_angle, max_angle, mod = self.get_closest_bins(gradient_angle) orientation_centers[min_angle] += (gradient_strength * (1 - (mod / self.angle_unit))) orientation_centers[max_angle] += (gradient_strength * (mod / self.angle_unit)) return orientation_centers def get_closest_bins(self, gradient_angle): idx = int(gradient_angle / self.angle_unit) mod = gradient_angle % self.angle_unit if idx == self.bin_size: return idx - 1, (idx) % self.bin_size, mod return idx, (idx + 1) % self.bin_size, mod def render_gradient(self, image, cell_gradient): cell_width = self.cell_size / 2 max_mag = np.array(cell_gradient).max() for x in range(cell_gradient.shape[0]): for y in range(cell_gradient.shape[1]): cell_grad = cell_gradient[x][y] cell_grad /= max_mag angle = 0 angle_gap = self.angle_unit for magnitude in cell_grad: angle_radian = math.radians(angle) x1 = int(x * self.cell_size + magnitude * cell_width * math.cos(angle_radian)) y1 = int(y * self.cell_size + magnitude * cell_width * math.sin(angle_radian)) x2 = int(x * self.cell_size - magnitude * cell_width * math.cos(angle_radian)) y2 = int(y * self.cell_size - magnitude * cell_width * math.sin(angle_radian)) cv2.line(image, (y1, x1), (y2, x2), int(255 * math.sqrt(magnitude))) angle += angle_gap return image img = cv2.imread('G://1.bmp', cv2.IMREAD_GRAYSCALE) hog = Hog_descriptor(img, cell_size=8, bin_size=8) vector, image = hog.extract() plt.imshow(image, cmap=plt.cm.gray) plt.show()

2020-06-05

CxLibSVM.rar

SVM的libsvm库。封装了libsvm,非常好的机器学习入门示例。可以用来做字符识别、是一个很好的模式识别例子。

2020-06-05

字符模板字母、数字字符

字符模板,字符识别。字母A~Z,数字0~9的模板。OCR所需的字符模板。总共6393各字符。测试字符三百多个。

2020-06-05

opencv4.2.0无需编译

OPENCV4.2.0包括了non-free,可以做特征相关的算法。以下是程序。 #include "opencv2/opencv.hpp" void main() { cv::Mat lenaImg = cv::imread("G:\\1.bmp"); cv::Mat lenaImg2 = cv::imread("G:\\2.bmp"); auto akaze_detector = AKAZE::create(); vector<KeyPoint> kpts_01, kpts_02; Mat descriptors1, descriptors2; akaze_detector->detectAndCompute(lenaImg, Mat(), kpts_01, descriptors1); akaze_detector->detectAndCompute(lenaImg2, Mat(), kpts_02, descriptors2); // 定义描述子匹配 - 暴力匹配 Ptr<DescriptorMatcher> matcher = DescriptorMatcher::create(DescriptorMatcher::BRUTEFORCE); std::vector< DMatch > matches; matcher->match(descriptors1, descriptors2, matches); // 绘制匹配 Mat img_matches; drawMatches(lenaImg, kpts_01, lenaImg2, kpts_02, matches, img_matches); imshow("AKAZE-Matches", img_matches); imwrite("D://result.png", img_matches); waitKey(0); }

2020-06-03

Mininst格式数据制作。

制作Mininst格式的数据,研究sklearn库等机器学习算法与库用得到。C++的VS2017测试通过。适用于车牌和数字识别。下面是Skearn测试程序。 #导入必备的包 import numpy as np import struct import matplotlib.pyplot as plt import os ##加载svm模型 from sklearn import svm ###用于做数据预处理 from sklearn import preprocessing import time #加载数据的路径 path='.' def load_mnist_train(path, kind='train'): labels_path = os.path.join(path,'%s-labels-idx1-ubyte'% kind) images_path = os.path.join(path,'%s-images-idx3-ubyte'% kind) with open(labels_path, 'rb') as lbpath: magic, n = struct.unpack('>II',lbpath.read(8)) labels = np.fromfile(lbpath,dtype=np.uint8) with open(images_path, 'rb') as imgpath: magic, num, rows, cols = struct.unpack('>IIII',imgpath.read(16)) images = np.fromfile(imgpath,dtype=np.uint8).reshape(len(labels), 784) return images, labels def load_mnist_test(path, kind='t10k'): labels_path = os.path.join(path,'%s-labels-idx1-ubyte'% kind) images_path = os.path.join(path,'%s-images-idx3-ubyte'% kind) with open(labels_path, 'rb') as lbpath: magic, n = struct.unpack('>II',lbpath.read(8)) labels = np.fromfile(lbpath,dtype=np.uint8) with open(images_path, 'rb') as imgpath: magic, num, rows, cols = struct.unpack('>IIII',imgpath.read(16)) images = np.fromfile(imgpath,dtype=np.uint8).reshape(len(labels), 784) return images, labels train_images,train_labels=load_mnist_train(path) test_images,test_labels=load_mnist_test(path) X=preprocessing.StandardScaler().fit_transform(train_images) X_train=X[0:60000] y_train=train_labels[0:60000] print(time.strftime('%Y-%m-%d %H:%M:%S')) model_svc = svm.LinearSVC() #model_svc = svm.SVC() model_svc.fit(X_train,y_train) print(time.strftime('%Y-%m-%d %H:%M:%S')) ##显示前30个样本的真实标签和预测值,用图显示 x=preprocessing.StandardScaler().fit_transform(test_images) x_test=x[0:10000] y_pred=test_labels[0:10000] print(model_svc.score(x_test,y_pred)) y=model_svc.predict(x) fig1=plt.figure(figsize=(8,8)) fig1.subplots_adjust(left=0,right=1,bottom=0,top=1,hspace=0.05,wspace=0.05) for i in range(100): ax=fig1.add_subplot(10,10,i+1,xticks=[],yticks=[]) ax.imshow(np.reshape(test_images[i], [28,28]),cmap=plt.cm.binary,interpolation='nearest') ax.text(0,2,"pred:"+str(y[i]),color='red') #ax.text(0,32,"real:"+str(test_labels[i]),color='blue') plt.show()

2020-05-09

TensorflowBaseDemo-master.zip

字符识别。安装tensorflow。 conda create -n cpu_avx2 python=3.7 The following packages will be downloaded: package | build ---------------------------|----------------- certifi-2020.4.5.1 | py37_0 156 KB openssl-1.1.1g | he774522_0 4.8 MB python-3.7.7 | h60c2a47_2 18.3 MB setuptools-46.1.3 | py37_0 528 KB sqlite-3.31.1 | h2a8f88b_1 1.3 MB zlib-1.2.11 | h62dcd97_4 132 KB ------------------------------------------------------------ Total: 25.2 MB The following NEW packages will be INSTALLED: ca-certificates pkgs/main/win-64::ca-certificates-2020.1.1-0 certifi pkgs/main/win-64::certifi-2020.4.5.1-py37_0 openssl pkgs/main/win-64::openssl-1.1.1g-he774522_0 pip pkgs/main/win-64::pip-20.0.2-py37_1 python pkgs/main/win-64::python-3.7.7-h60c2a47_2 setuptools pkgs/main/win-64::setuptools-46.1.3-py37_0 sqlite pkgs/main/win-64::sqlite-3.31.1-h2a8f88b_1 vc pkgs/main/win-64::vc-14.1-h0510ff6_4 vs2015_runtime pkgs/main/win-64::vs2015_runtime-14.16.27012-hf0eaf9b_1 wheel pkgs/main/win-64::wheel-0.34.2-py37_0 wincertstore pkgs/main/win-64::wincertstore-0.2-py37_0 zlib pkgs/main/win-64::zlib-1.2.11-h62dcd97_4 Proceed ([y]/n)? y Downloading and Extracting Packages setuptools-46.1.3 | 528 KB | ############################################################################ | 100% python-3.7.7 | 18.3 MB | ############################################################################ | 100% certifi-2020.4.5.1 | 156 KB | ############################################################################ | 100% zlib-1.2.11 | 132 KB | ###################

2020-04-30

minist转为为图像的代码。含有Minist文件数据。

Minist原始数据,手写数字训练数据,含有60000个训练样本和10000测试数据。资源下载所需积分0 。或者去百度网盘免费下载。链接: https://pan.baidu.com/s/1YfjdwjqKromieGyZTprd7Q 提取码: q9ps

2020-04-26

模仿mnist数据集制作自己的数据集代码

模仿mnist数据集制作自己的数据集代码。HOG+SVM,深度学习,识别中采用的数据集。可以适用多个平台,声明本代码在OPENCV3.3和VS2017测试通过。

2020-04-26

hdf5-1.8源码

$ gunzip < hdf5-X.Y.Z.tar.gz | tar xf - #解压缩 $ cd hdf5-X.Y.Z $ ./configure --prefix=/usr/local/hdf5 #安装路径 $ make $ make check # run test suite. $ make install $ make check-install # verify installation. 最后安装,支持h5编译。 sudo apt-get install libhdf5-serial-dev

2018-11-23

VSCode 4Linux

VS,Linux Version,Extension:Clang,CMake,C/C++ IntelliSense.

2018-03-05

ORB-SLAM2源码

三维重建。跟踪。ORB SLAM2 源码。

2018-01-04

tensorflow依赖集合

tensorflow 1.4版本 依赖库 python /home/suanfa/data/tf_depends/funcsigs-1.0.2.tar.gz /home/suanfa/data/tf_depends/funcsigs-1.0.2-py2.py3-none-any.whl /home/suanfa/data/tf_depends/mock-2.0.0.tar.gz /home/suanfa/data/tf_depends/mock-2.0.0-py2.py3-none-any.whl /home/suanfa/data/tf_depends/numpy-1.11.2.tar.gz /home/suanfa/data/tf_depends/pbr-3.1.1.tar.gz /home/suanfa/data/tf_depends/pbr-3.1.1-py2.py3-none-any.whl /home/suanfa/data/tf_depends/protobuf-3.1.0.post1.tar.gz /home/suanfa/data/tf_depends/protobuf-3.1.0.post1-py2.py3-none-any.whl /home/suanfa/data/tf_depends/setuptools-38.2.4.rar /home/suanfa/data/tf_depends/six-1.11.0.tar.gz /home/suanfa/data/tf_depends/six-1.11.0-py2.py3-none-any.whl /home/suanfa/data/tf_depends/tf_depends.rar

2017-12-09

VOT2014测试集合

VOT2014竞赛测试集,Tracking测试集,共25个序列。 下载地址见附件。truck方法有很多,粒子滤波,频域方法。

2017-10-24

VOC图像集(人工智能)

VOC测试集和训练集,将下载的所有3个文件解压到一个文件夹。 下载地址见附件。VOC测试集和训练集,将下载的所有3个文件解压到一个文件夹。 学习跟踪可以从struck,频域方法研究。

2017-10-24

eigen3源码

caffe中提供了c++的接口,所以在c++矩阵对矩阵的处理是不可避免的,所以这里使用了eigen库来实现c++对矩阵、向量等的快速处理。 eigen是开源、并且不用编译的库,主要原因是它提供的实现都是模板,所以不能使用编译好的链接库。 下面介绍Ubuntu下的相关配置: 1、安装 该部分主要参照eigen3下载后的安装文档: 1)在INSTALL文件所在的文件路径新建一个文件夹如build_dir(m) 2)进入build_dir(cd build_dir) 3)cmake .. 4)make 5)sudo make install 安装后头文件在: usr/local/include/eigen3

2017-10-16

( pip-9.0.1-py2.py3-none-any.whl

进入下载文件夹,使用pip install pip-9.0.1-py2.py3-none-any.whl 安装

2017-10-16

OpenCV-2.4.2.tar.bz2

1)在安装OpenCV前需要安装的软件包有 GCC4.4.X or later,可通过命令sudo apt-get install build-essential安装 CMake2.6 or later SVN客户端 GTK+2.Xor higher, including headers(libgtk2.0-dev) pkgconfig Python2.6 or later and Numpy 1.5 or later with developerpackages(python-dev, python-numpy) ffmpegor libav development packages: libavcodec-dev, libavformat-dev,libswsacle-dev [可选]libdc13942.x [可选]libjpeg-dev,libpng-dev, libtiff-dev, libjasper-dev 所有的软件包都可在终端安装或者通过Synaptic软件管理器。 终端安装依赖项: sudo apt-get install build-essential libgtk2.0-dev libjpeg-dev libtiff4-dev libjasper-dev libopenexr-dev cmake python-dev python-numpy python-tk libtbb-dev libeigen2-dev yasm libfaac-dev libopencore-amrnb-dev libopencore-amrwb-dev libtheora-dev libvorbis-dev libxvidcore-dev libx264-dev libqt4-dev libqt4-opengl-dev sphinx-common texlive-latex-extra libv4l-dev libdc1394-22-dev libavcodec-dev libavformat-dev libswscale-dev 2)下载最新版OpenCV 打开网页:http://sourceforge.net/projects/opencvlibrary 下载安装包OpenCV-2.4.2.tar.bz2 sudo tar jxvf OpenCV-2.4.2.tar.bz2 -C /usr/local/ cd /usr/local/ sudo mv OpenCV-2.4.2 opencv cd opencv mkdir release cd release cmake -D WITH_TBB=ON -D BUILD_NEW_PYTHON_SUPPORT=ON -D WITH_V4L=ON -DINSTALL_C_EXAMPLES=ON -D INSTALL_PYTHON_EXAMPLES=ON -DBUILD_EXAMPLES=ON -D WITH_QT=ON -D WITH_OPENGL=ON .. make sudo make install 3)安装后的配置 添加库的路径 sudo gedit /etc/ld.so.conf.d/opencv.conf 添加内容 /usr/local/lib 在终端输入命令 sudo ldconfig 设置环境变量 sudo gedit /etc/bash.bashrc 在文件最后加入以下两行并保存: PKG_CONFIG_PATH=$PKG_CONFIG_PATH:/usr/local/lib/pkgconfig export PKG_CONFIG_PATH 此时重启Ubuntu或重新登录账户,使得OpenCV安装生效。 4)测试OpenCV自带例程 编译程序: cd /usr/local/opencv/samples/c chmod +x build_all.sh ./build_all.sh 运行程序: ./facedetect --cascade="/usr/local/share/OpenCV/haarcascades/haarcascade_frontalface_alt.xml" --scale=1.5 lena.jpg 运行结果可以看到脸部有圆框

2017-10-16

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除