自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(41)
  • 资源 (22)
  • 收藏
  • 关注

原创 opencv_DNN模块加载caffe模型

WindowsDNN模块需要opencv版本是3.3以上。配置VS环境加入opencv路径。代码逻辑:预设文件加载路径; 加载图片; 读取标签文件类别名称,存储到vector变量中。 API调用caffe模型; 输入图片数据需要格式转换; 前向推理模型,得到结果; 对结果数据进行reshape,找到结果中比例最大值位置信息; 打印对应位置类别名称;main.cpp#include <opencv2/opencv.hpp>#include <opencv2

2021-05-06 18:19:32 566 4

原创 Network in Network

CSDN下载链接https://download.csdn.net/download/qq_38649386/13986601

2020-12-30 20:13:02 158

原创 opencv-基础篇

目录1 图像采集 11.1 数据类型 11.1.1 Mat 11.2 图像加载、截取、转色域 31.2.1 格式与信息 31.2.2 imread 31.2.3 Rect 41.2.4 cvtColor 51.3 加载视频 61.3.1 VideoCapture 1 读摄像头 61.3.2 VideoCapture 2 拍照保存 61.3.3 VideoCapture 3 保存视频 71.3.4 VideoCapture ...

2020-12-30 19:43:34 642

原创 Tengine-EAIDK310使用

目录前言 11 EAIDK310开发流程 21.1 流程图 21.2 必备技能 31.3 Tengine说明 32 深度学习模型模型转换 42.1 保存模型和参数 42.1.1 保存模型结构和权重参数 42.1.2 只保存模型权重 42.1.3 加载别人训练好的模型 42.1.4 分别加载网络的结构和参数 42.2 pytorch转ONNX 52.2.1 保存模型结构和权重参数 52.2.2 只保留模型权重 5...

2020-12-30 19:21:09 2868

原创 YOLOv3文章理解与代码理解资料链接

3 YOLOv33.1 文章3.1.1 YOLOv3 深入理解链接:https://www.jianshu.com/p/d13ae1055302概述:讲先验框尺寸和输出tensor组成3.1.2 What’s new in YOLO v3?链接:https://towardsdatascience.com/yolo-v3-object-detection-53fb7d3bfe6b概述:介绍了YOLO3改进,不是很详细,但是可以锻炼英文阅读能力。3.1....

2020-10-17 21:15:15 182

原创 YOLOv2文章理解与资料链接

2 YOLOv22.1 文章链接https://zhuanlan.zhihu.com/p/35325884https://zhuanlan.zhihu.com/p/475759292.2 speed&mAP比较2.3 改进

2020-10-17 21:13:56 109

原创 YOLOv1文章理解与资料

1 YOLOv1 YOLO v1原文理解 1.1.1 摘录448*448-->CNN-->7*7*30(20+2*(4+1))S*S*(C+B*(4+1))4:(Center_x,Center_y,width,height)a:confidence最多表示的对象:7*7=49个,最多表示出49个对象。总共有 49*2=98 个候选区(bounding box)NMS(非极大值抑制):每个网格有:20个对象的概率*2个...

2020-10-17 21:12:54 124

原创 《西瓜书+统计学习方法》第一章-误差评估与检验

1 模型评估与选择1.1 经验误差1.2.1 精确度Acc = 1-a/m1.2.2 错误率Error=a/m1.2.3 欠拟合和过拟合欠拟合:增加训练次数。过拟合:无法彻底解决,只能缓解。1.2.4 模型选择对候选模型进行泛化误差评估,选择泛化误差最小的模型。1.2 评估方法1.2.1 留出法按比例留出部分数据做测试集数据。多次留出法,取平均值:过多,变成以全部数据集D做训练,少量的测试集T不能正确评估。过少,训练集数据因每次...

2020-10-17 19:30:59 754

原创 嵌入式AI平台介绍

CSDN下载链接:目录1 技术方案 11.1 可选方案 11.1.1 ARM 11.1.2 CPU+FPGA 11.1.3 AI芯片 11.1.4 树莓派 11.2 挑战与解决 11.2.1 挑战 11.2.2 修剪神经网络 21.2.3 嵌入式终端优化 21.3 GPU 21.4 ARM 31.5 FPGA结构的并行计算 41.5.1 介绍 41.5.2 流水线计算 41.5.3 分布式流水线计...

2020-10-13 08:49:06 6873 2

原创 K210使用和测试

B站链接:https://www.bilibili.com/video/BV1ET4y1c7rw/CSDN文件下载:GitHub链接:目录前言 41 Kendryte开发 51.1 IDE环境 51.2 开发使用 61.2.1 驱动安装 61.2.2 使用教程 61.3 加载深度学习模型 71.4 摄像头和显示屏调试 81.4.1 测试camera和LCD 81.4.2 图像底色问题 81.4.3 LCD图像反...

2020-10-13 08:40:53 9944 2

原创 海思开发板

MPP:https://blog.csdn.net/ywcpig海思提供的媒体处理软件平台(Media Process Platform,简称 MPP),可支持应用软件快速 开发。该平台对应用软件屏蔽了芯片相关的复杂的底层处理,并对应用软件直接提供 MPI(MPP Program Interface)接口完成相应功能。该平台支持应用软件快速开发以下 功能:输入视频捕获、H.265/H.264/JPEG 编码、H.265/H.264/JPEG 解码、视频输出显 示、视频图像前处理(包括去噪、增强、锐化

2020-09-17 20:16:08 603

转载 如何学习open CV

https://blog.csdn.net/zhangjunp3/article/details/79907555本文授权转载自贾老师的微信公众号"OpenCV学堂"。更多信息可扫描文末二维码关注公众号(知乎已将二维码转换成链接,可自动跳转到微信)。一:学习OpenCV三个阶段人工智能带火了计算机视觉的人才需求,作为计算机视觉应用开发框架OpenCV也越来越受到欢迎,市场需求大增,很多人听说了之后就迫不及待的想加入这波大军,这其中很多人他可能懂应用编程,但是计算机视觉零基础,一般都是我要识别个什

2020-09-17 10:12:33 1363

原创 代价函数&损失函数&目标函数的理解

https://blog.csdn.net/lyl771857509/article/details/79428475损失函数(Loss Function )是定义在单个样本上的,算的是一个样本的误差。代价函数(Cost Function )是定义在整个训练集上的,是所有样本误差的平均,也就是损失函数的平均。目标函数(Object Function)定义为:最终需要优化的函数。等于经验风险+结构风险(也就是Cost Function + 正则化项)。代价函数 + 正则化项关于

2020-09-14 16:33:14 185

原创 编码器和GAN网络的概念

生成对抗模型:思想来源于博弈理论的纳什均衡。基本思想:能够从有限的数据集中获得足够的训练样本,从而学习训练样本中的概率分布。D:判别模型,目的:实现对数据来源的二分类。G:生成模型生成模型:生成假数据,结合判别模型,最终达到生成以假乱真的数据。判别模型:判别数据是真/假。自编码器:通过训练网络忽略信号中噪声的数据。通常用于降维和数据压缩、去噪。特点:1.只能用于压缩训练数据集相关的数据;2.压缩的数据是有损压缩;变分自动编码器:...

2020-09-13 21:51:56 1208

转载 KL散度-Entropy-JS散度-W距离

https://zhuanlan.zhihu.com/p/95687720KL Divergence所谓KL散度,是指当某分布q(x)被用于近似p(x)时的信息损失。也就是说,q(x)能在多大程度上表达p(x)所包含的信息,KL散度越大,表达效果越差。

2020-09-13 20:56:32 502

原创 损失函数-MSE-CEE

F.cross_entropy()F.nll_entropy()nn.MSELoss()MSELoss损失函数中文名字就是:均方损失函数,公式如下所示:这里 loss, x, y 的维度是一样的,可以是向量或者矩阵,i 是下标。很多的 loss 函数都有 size_average 和 reduce 两个布尔类型的参数。因为一般损失函数都是直接计算 batch 的数据,因此返回的 loss 结果都是维度为 (batch_size, ) 的向量。一般...

2020-09-13 10:54:13 1620

原创 数据预处理-transform[ToTensor,Normalizer]

https://www.lizenghai.com/archives/46484.html?btwaf=28833990常用的数据预处理方法:torchvision.transforms:提升泛化能力包括:数据中心化、数据标准化、缩放、裁剪、旋转、翻转、填充、噪声添加、灰度变换、线性变换、仿射变换、亮度、饱和度及对比度变换等数据标准化 transforms.Normalize() 功能:逐channel的对图像进行标准化(均值变为0,标准差变为1),可以加快模型的收敛 o

2020-09-13 10:19:57 3081

原创 冻结训练

https://www.zhihu.com/question/311095447/answer/589307812https://zhuanlan.zhihu.com/p/115251842https://zhuanlan.zhihu.com/p/137562717

2020-09-12 21:12:45 874

原创 one-hot编码文章链接

https://www.cnblogs.com/zongfa/p/9305657.html

2020-09-12 20:27:33 96

原创 局部最小值

https://blog.csdn.net/malefactor/article/details/78768210?utm_source=blogxgwz5对于神经网络目标函数优化来说,在参数寻优过程中最常用的算法是梯度下降,目前也出现了很多基于SGD基础上的改进算法,比如带动量的SGD,Adadelta,Adagrad,Adam,RMSProp等梯度下降改进方法,这些算法大多都是针对基础更新公式进行改进:一般深度神经网络由于很深的深度以及非线性函数这两个主要因素,导致目标的损失函数是非...

2020-09-12 17:07:52 2066

原创 Batch size对训练效果的影响&局部最小值

一般来说,在合理的范围之内,越大的 batch size 使下降方向越准确,震荡越小;batch size 如果过大,则可能会出现局部最优的情况。小的 bath size 引入的随机性更大,难以达到收敛,极少数情况下可能会效果变好。首先,为什么需要有 Batch_Size 这个参数? Batch 的选择,首先决定的是下降的方向。如果数据集比较小,完全可以采用全数据集(Full Batch Learning)的形式,这样做至少有 2 个好处:其一,由全数据集确定的方向...

2020-09-12 16:33:53 748

原创 requires_grad&volatile在冻结训练&预训练中的使用

每个变量都有两个标志:requires_grad和volatile。它们都允许从梯度计算中精细地排除子图,并可以提高效率。requires_grad 如果有一个单一的输入操作需要梯度,它的输出也需要梯度。相反,只有所有输入都不需要梯度,输出才不需要。如果其中所有的变量都不需要梯度进行,后向计算不会在子图中执行。>>> x = Variable(torch.randn(5, 5))>>> y = Variable(torch.randn(5, 5...

2020-09-12 15:25:17 479

转载 极客公园-零基础看懂全球 AI 芯片:详解「xPU」

https://www.sohu.com/a/169062329_413980随着 AI 概念火爆全球,做 AI 芯片的公司也层出不穷。为了让市场和观众能记住自家的产品,各家在芯片命名方面都下了点功夫,既要独特,又要和公司产品契合,还要朗朗上口,也要容易让人记住。比较有意思的是,很多家都采用了「xPU」的命名方式。本文就来盘点一下目前各种「xPU」命名 AI 芯片,以及芯片行业里的各种「xPU」缩写,供吃瓜群众消遣,也供后来者起名参考。此外,除了「xPU」命名方式,本文也扩展了一些「xxP」方.

2020-08-26 16:35:16 3799 1

原创 目标检测-相关算法-rcnn、fast-rcnn、faster-rcnn、yolo、ssd

R-CNNSPPNetFast R-CNNFaster R-CNN

2020-08-17 14:47:53 70

原创 深度学习-相关指标-mAP

recall-召回率也叫查全率,预测的样本中实际的正样本数 / 所有的正样本数为了提高召回率,可以多预测。precision-准确率也叫查准率,预测的样本中实际的正样本数 / 预测的样本数为了提高准确率,可以少预测。P-R曲线每一类都可以根据recall和precision绘制P-R曲线AP就是该P-R曲线下的面积。mAP-平均准确率mAP就是所有类AP的平均值。mean Averge Precisi...

2020-08-17 14:24:39 391

原创 cupy安装

安装:安装之前要擦汗你看自己已经安装CUDA的版本在cmd下运行:nvcc -V依据自己版本修改。例如:其次,开始安装cupy:pip install cupy-cuda92问题:1.输入安装命令后出现ERROR: No matching distribution found for cupy-cuda92解决办法:添加镜像pip install -i https://pypi.tuna.tsinghua.edu.cn/simple cupy-cuda90.

2020-08-06 20:04:26 7550 2

原创 《机器学习从入门到入职》卷积神经网络-keras-CIFAR10-参数调优-图像数据增强

代码链接:CSDN:https://download.csdn.net/download/qq_38649386/12677269GitHub:实验原理:参数调优改进代码:# 构建卷积模型model = Sequential()model.add(Conv2D(20, kernel_size=5, padding="same", input_shape=input_shape))model.add(Activation("relu"))model.add(MaxPoo.

2020-08-01 11:02:50 343

原创 《机器学习从入门到入职》卷积神经网络-keras-数据集CIFAR10

实验代码链接:待更新《机器学习从入门到入职》: 第十章 , P348深度学习卷积神经网络代码 - 框架 : keras - 数据集 : CIFAR10实验原理:待更新实验结果:实验结论:前提条件:硬件受限,Epoch:5(轮数不够)1.训练模型对CIFAR10数据集的loss/accuracy比mnist数据集差很多;a.训练次数不够:在增加训练次数的情况下,Epoch=40下,train_accuracy:62.3% ;...

2020-07-30 19:20:24 309

原创 《机器学习从入门到入职》深度学习卷积神经网络-keras数据集mnist

实验代码链接:待更新《机器学习从入门到入职》:第十章,P345深度学习卷积神经网络代码-框架keras数据集mnist实验原理:待更新实验结果:实验结论:实验问题及解决:1.model.fit(X_train, y_train, batch_size=BATCH_SIZE, epochs=NB_EPOCH,verbose=VERBOSE, validation_split=VALIDATION_SPLIT, callbacks=...

2020-07-29 23:06:16 392

原创 《机器学习从入门到入职》-不同梯度下降算法的比较-‘sgd‘, ‘rmsprop‘, ‘adagrad‘, ‘adadelta‘, ‘adam‘, ‘nadam‘

代码链接:待更新实验原理:待更新实验结果:实验结论:前提:硬件受限Epoch比较小;数据集比较小;1.SGD理论上收敛时间短,但是效果不佳;2.Adative相关的算法和向量法相关的算法效果都比较好;3.optimizers的调优选择效果比之前做实验关于神经元深度/宽度的accuracy/loss的评分好;问题解决:1.”y_train = np_utils.to_categorical(y_train, NB_CLASSES)“...

2020-07-29 20:13:33 300

原创 《机器学习从入门到入职》讨论隐藏层对模型的影响-增加层深度/层数

代码链接:https://download.csdn.net/download/qq_38649386/12668357实验效果:结论:层数/深度 增加的效果优于 宽度增加的效果遇到的问题及解决方法:1.for 循环内模型建立有问题:本来要建立四个不同模型变成同一个模型层数叠加错误:正确代码:# 分别列举增加不同神经元数量及层数-【神经元数量,层数】for i,j in enumerate([[512,1],[1024,2],[512,4],.

2020-07-28 17:28:39 1462

原创 《机器学习从入门到入职》讨论隐藏层对模型的影响-增加层宽度

先贴上代码,再解释:from keras.models import Sequentialfrom keras.layers.core import Dense, Activationfrom keras.optimizers import SGDfrom keras.utils import np_utilsimport kerasimport numpy as npdef load_mnist(): #放置mnist.py的目录。注意斜杠 path = r'C:\U

2020-07-28 13:07:25 878 1

原创 《机器学习从入门到入职》keras手写字体识别mnist及TensorBoard

先贴上代码:import kerasfrom keras.datasets import mnistfrom keras.models import Sequentialfrom keras.layers.core import Dense, Activationfrom keras.optimizers import SGDfrom keras.utils import np_utilsimport numpy as npfrom keras.callbacks import Tens

2020-07-27 23:52:06 189

原创 keras下安装tensorflow2.2问题解决

进入jupyter nootbook 输入“import keras" ,提示需要安装tensorflow2.2或更高版本。以下是遇到的各种问题及其解决办法:1.怎么安装tensorflow版本解决: 看好keras要的是2.2 不是2.0,自己第一次安装成功,但是版本不对。2.看好自己安装的是cpu还是GPU版本的。3.安装太慢解决: 注意用的什么镜像源,最好用使用豆瓣源安装。pip install tensorflow...

2020-07-27 12:22:11 2257

原创 神经网络相关知识点介绍集锦-不定期更新

这篇文章总结的不错,建议阅读:https://www.cnblogs.com/skyfsm/p/8451834.html

2020-07-25 12:40:09 139

原创 SVM支持向量机sklearn-wine红酒数据集代码V1

import numpy as npimport matplotlib.pyplot as pltfrom sklearn import svmfrom sklearn.datasets import make_blobsfrom sklearn.datasets import load_wine# 定义函数作图def make_meshgrid(x, y, h=.02): x_min, x_max = x.min() - 1, x.max() + 1 y_min, y_m.

2020-07-24 18:11:02 2348

原创 SVM支持向量机sklearn代码V3

import numpy as npimport matplotlib.pyplot as pltfrom sklearn import svmfrom sklearn.datasets import make_blobsX, y = make_blobs(n_samples=50, centers=2, random_state=6)clf = svm.SVC(kernel='linear', C=1000)clf.fit(X, y)# plot the samplesplt.sca.

2020-07-24 16:29:19 138

原创 SVM支持向量机sklearn代码V2

from sklearn import svmfrom sklearn.datasets import make_blobsimport matplotlib.pyplot as pltimport numpy as npX, y = make_blobs(n_samples = 100, centers = 2 ,random_state = 0, cluster_std = 0.3 )clf = svm.SVC(C = 1.

2020-07-23 20:59:07 252

原创 SVM支持向量机sklearn代码V1

import numpy as npfrom matplotlib import pyplot as pltfrom sklearn import svm# 原始数据生成函数def f(x): noise = np.random.normal(0, 1, len(x))[:, np.newaxis] y = x * x * x - 16 * x - x * x + 5 + 66 * noise return y# 生成原始函数X = np.linspace(-12.

2020-07-23 20:54:47 444

原创 SVM推导过程中r=2/||w||怎么理解

下图为西瓜书SVM示意图:结合点到直线距离公式可知:(1)r=2/||w|| 是两个超平面之间的距离。(2)SVM是要使最大化间隔max 2/||w||,即min 1/2*||w||,等价于最小化||w||^2

2020-07-23 12:37:42 1181

caffe_GoogLeNet_opencv_DNN.zip

caffe_GoogLeNet.zip包含了aarch64 Linux平台(RK3399),还有Windows10平台VS的文件,利用opencv DNN模块,架子啊caffe模型,使用GoogleNet网络。

2021-05-06

Network in Network.pdf

深度学习文献Network in network文献,加阅读笔记。

2020-12-30

OpenCV.pdf

关于opencv基础函数教程文档,解释一些opencv图像处理比较基础的知识和函数使用。

2020-12-30

EAIDK310使用情况.pdf

基于EAIDK310的深度学习的硬件开发板端侧推理引擎Tengine的部署使用

2020-12-30

嵌入式人工智能AI平台

文章分析了现有可以部署AI算法、深度学习算法模型的多个平台的基本情况,包括ARM、FPGA、K210、AI芯片

2020-10-13

K210使用情况指南以及测试情况

国产芯片K210官方资料齐全,但是开源项目资料比较少。开发过程中,需要按照实际项目修改引脚参数、外设寄存器配置、编写程序函数以及算法移植。 K210支持C/C++和Micro-Python语言进行应用开发。经过多次摸索,现已掌握其开发流程,并记录运行效果。 针对测试过程中出现的问题,提出了可行的方法。

2020-10-13

卷积神经网络convolution_CIFAR10_keras_参数调优和图像增强代码

《机器学习从入门到入职》卷积神经网络convolution_数据集CIFAR10_框架keras实验的相关代码

2020-08-01

卷积神经网络convolution_CIFAR10_keras

《机器学习从入门到入职》卷积神经网络convolution_数据集CIFAR10_框架keras实验的相关代码

2020-07-30

深度学习卷积神经网络mnist算法代码-keras

《机器学习从入门到入职》深度学习的卷积神经网络算法代码框架用的是keras,数据集选用mnist手写字体识别

2020-07-29

《机器学习从入门到入职》深度学习不同梯度下降算法比较代码keras

深度学习中,不同梯度下降算法的比较。代码框架用keras。算法包括'sgd', 'rmsprop', 'adagrad', 'adadelta', 'adam', 'nadam‘,《机器学习从入门到入职》

2020-07-29

《机器学习从入门到入职》mnist实验改变隐藏层神经元层数和神经元数量的代码及结构图

<>中-mnist实验章节,隐藏层中神经元数量变化对实验影响的代码,主要改变隐藏层的“深度深度深度深度深度”,及神经元数量(重复强调)

2020-07-28

mnist实验代码.zip

<<机器学习从入门到入职>>中-mnist实验章节,对mnist数据集进行训练和评分的实验代码,代码有部分注释,能够正常运行

2020-07-28

机器学习从入门到入职-mnist隐藏层神经元数量实验.zip

<<机器学习从入门到入职>>中-mnist实验章节,隐藏层中神经元数量变化对实验影响的代码,主要改变隐藏层的宽度,及神经元数量

2020-07-28

严蔚敏PPT.zip

严蔚敏PPT.zip 配套书的PPT 有两份PPT不一样的PPT自己看吧

2019-07-30

严蔚敏代码和实验指导.zip

严蔚敏代码和实验指导.zip 大部分直接编译就能跑 亲测

2019-07-30

严蔚敏教学大纲数据结构.zip

严蔚敏教学大纲数据结构.zip 考研用 就是教学大纲 有需要的下载

2019-07-30

考研资料_数据结构_计算机网络.zip

考研资料_数据结构_计算机网络的相关资料压缩包 不知道什么机构出的

2019-07-29

数据结构严蔚敏和1800.zip

考研的指定教材数据结构 严蔚敏编写的影印版 电子档的1800合集

2019-07-24

考研各科目大纲_数学英语政治和C语言的考试大纲

考研各科目大纲_数学英语政治和C语言的考试大纲,是2018年的大纲,然后基本上每年的大纲都不变,变动不会太大,可最为参考,具体以当年发布的为准

2019-06-25

GPUCoder_MATLAB转CUDA

深度学习算法MATLAB generate CUDA; MATLAB转GPU代码运行的介绍pdf文件

2018-12-31

深度学习_MATLAB_deep learning

用MATLAB介绍deep learning的PDF文档,用于学习深度学习

2018-12-31

通信原理PPT-带试题

通信原理上课PPT+章节试题解答;考试复习+同步上课复习资料

2018-12-30

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除