自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(93)
  • 资源 (3)
  • 收藏
  • 关注

原创 数据结构学习

选择题注意区分逻辑结构和存储结构的区别,不要混为一谈,尤其是选择题,题目是逻辑结构时,选项不能选存储结构定义: 一组地址连续的存储单元依次存储线性表中的数据元素,从而使得逻辑上相邻的两个元素在物理位置上也相邻。注: 线性表中的任一数据元素都可以随机存取,所以线性表的顺序存储结构是一种随机存取的存储结构。通常用高级程序设计语言中的数组来描述线性表的顺序存储结构。动态分配顺序表最主要的特点是随机访问,即通过首地址和元素序号可在实践O(1)内找到指定的元素。顺序表的存储密度高,每个结点只存储数据元素

2022-10-06 09:59:10 845 1

原创 软件工程总结

需求”是对外可见的系统特性。领域性质:无论系统存在与否均存在的应用领域的性质。需求:由系统的存在而使能的应用领域性质规约描述:描述系统为满足需求而应具有的行为需求证明的标准:运行在某台机器上的程序满足规约描述;针对给定的领域性质,规约描述满足需求好的需求是可以度量的,能给出项目成功的必要条件单个需求项的质量(准确,正确,明确,可行,可证)整个需求集合的质量(现实,精确,全面,一致)系统建模工具的主要功能可视化模型表达UML模型Web模型,数据库模型用户自定义模型。

2022-10-06 09:58:42 589

原创 三维重建总结

三维场景渲染与重建是利用场景的图形或图像等信息渲染出特定观测视点的场景图像和重建出三维场景的结构模型,它是计算机视觉中的一个重要的研究课题,开展该方面的研究对于模型识别、虚拟现实、探险救援、军事侦察等都具有非常重要的意义。经典的三维场景渲染与重建方法按照基本处理单位的不同分为:以像素点作为基本处理单位逐点进行渲染与重建,该方法获得的渲染图像和重建模型比较真实,但是速度较慢;以网格作为基本处理单位进行渲染与重建,该计算速度较快,基本能满足实时渲染的要求,但是当网格内包含目标边界时导致渲染图像和重建模型失真。另

2022-10-06 09:58:14 1685

原创 2022多目标跟踪论文阅读总结

为了缓解检测噪声,提出了一种新的特征存储和更新策略EMA bank,以同时保持不同的特征转态和特征变化的信息。成对的关联是有效的,但是缺乏一下明确的整体轨迹模型,有时会与严重的遮挡或强烈的外观变化导致失败。,提出了一种在线时间自适应卷积的方法,利用时间信息,通过根据前一帧动态校准卷积权值来增强空间特征。首先对检测图和轨迹图进行匹配,图的匹配问题是使匹配的顶点与由这些顶点连接的对应边之间的相似性最大化。2.相似性映射的细化。:最大化所有匹配顶点之间的顶点亲和度,并最小化所有匹配边之间的边权值的差异。

2022-10-06 09:57:57 1379 1

原创 C++小知识

/ 把rhs的成员加到this对象的成员上 revenue += rhs . revenue;return * this //返回调用该函数的对象 }定义非成员函数的方式与定义其他函数一样,通常把函数的声明和定义分离开来。如果函数在概念上属于类但是不定义在类中,则它一般应与类声明在同一个头文件内。在这种方式下,用户使用接口的任何部分都只需要引入一个文件。// 把lhs的数据成员拷贝给sum sum . combine(rhs);//把rhs的数据成员加到sum当中 return sum;}

2022-10-06 09:57:06 822

原创 匈牙利算法与卡尔曼滤波

首先,对匈牙利算法解决的问题进行概述:实际中,会遇到这样的问题,有n项不同的任务,需要n个人分别完成其中的1项,每个人完成任务的时间不一样。于是就有一个问题,如何分配任务使得花费时间最少。通俗来讲,就是n*n矩阵中,选取n个元素,每行每列各有一个元素,使得和最小。可以抽象成一个矩阵,如果是求和最小问题,那么这个矩阵就叫做花费矩阵(Cost Matrix);如果要求的问题是使之和最大化,那么这个矩阵就叫做利益矩阵(Profit Matrix).

2022-10-06 09:56:46 923

原创 图神经网络基础知识

在向量空间中,所有对象的向量都是互相正交的,那么它们两两之间的相似度为0. 此外,独热向量的维度可能会非常高并且非常稀疏,直接使用的话也非常困难。在使用多层GCN之后,节点的区分性变得越来越差,节点的表示向量趋于一致,这使得相应的学习任务变得更加困难。之前介绍的所有GNN的变体模型中,都没有显式地考虑节点之间关系的不同,相较于同构图,现实生活中的图数据往往是异构的,即图里面存在不止一种类型的关系。现在常使用deepgcn.上的特征向量,k表示第k次消息传播,在实际编程中,一般和模型中的层的概念等价。

2022-10-06 09:56:27 832

原创 深度学习面经总结

多个有2种,一种的dataparallel,一种的distributeddataparallel。DP的话是每张卡把梯度汇总给主卡,然后主卡做反向传播更新再把参数发给其他卡DDP是大家把梯度汇总之后各自在各自的卡里面更新。DDP是多进程,DP是单进程多线程,避免了GIL带来的性能开销DDP是大家各自传播梯度后,用ring all reduce做平均并传会给大家,然后大家各自做更新。

2022-10-06 09:56:00 754

原创 视觉传感器总结

视觉传感器总结激光雷达优势结构组成分类激光雷达的性能评估3D深度传感ToF工作原理测量δT\delta{T}δT方法连续波方法脉冲方法立体视觉优点缺点结构光优点缺点惯性导航系统简介惯性测量单元激光雷达与雷达工作原理类似,激光雷达通过测量激光信号的时间差和相位差来确定位置,但其最大优势在于能够利用多普勒成像技术,创建出目标清晰的3D图像。激光雷达通过发射和接收激光束,分析激光遇到目标对象后的折返时间,计算出到目标对象的相对距离,并利用此过程中收集到的目标对象表面大量密集的点的三维坐标、反射率和纹理等信息,

2022-05-31 19:39:24 3774

原创 机器学习—马尔科夫蒙特卡洛

机器学习—MCMC蒙特卡洛方法MCMC平稳分布MCMC是一种随机的近似推断,其核心就是基于采样的随机近似方法蒙特卡洛方法。对于采样任务来说,有下面一些常用的场景:采样作为任务,用于生成新的样本求和/求积分采样结束后,我们需要评价采样出来的样本点是不是好的样本集:样本趋向于高概率的区域样本之间必须独立具体采样中,采样时一个困难的过程:无法采样得到归一化因子,即无法直接对概率p(x)=1Zp^(x)p(x)=\frac{1}{Z}\hat{p}(x)p(x)=Z1​p^​(x)采样,常常需要对

2022-05-25 16:05:19 605

原创 机器学习——变分推断

机器学习——变分推断基于平均场假设的变分推断SGVI我们已经知道概率模型可以分为,频率派的优化问题和贝叶斯派的积分问题。从贝叶斯角度来看推断,对于x^\hat{x}x^这样的新样本,需要得到:p(x^∣X)=∫θp(x^,θ∣X)dθ=∫θp(θ∣X)p(x^∣θ,X)dθp(\hat{x}|X)=\int_\theta p(\hat{x},\theta|X)d\theta=\int_\theta p(\theta|X)p(\hat{x}|\theta,X)d\thetap(x^∣X)=∫θ​p(x^,

2022-05-24 18:15:26 231

原创 机器学习—高斯混合模型

机器学习—高斯混合模型极大似然估计EM求解GMM为了解决高斯模型的单峰性的问题,我们引入多个高斯模型的加权平均来拟合多峰数据:p(x)=∑k=1KαkN(μk,Σk)p(x)=\sum_{k=1}^K\alpha_k\mathcal{N}(\mu_k,\Sigma_k)p(x)=k=1∑K​αk​N(μk​,Σk​)引入隐变量z,这个变量表示对应的样本x属于一个高斯分布,这个变量时一个离散的随机变量:p(z=i)=pi,∑i=1kp(z=i)=1p(z=i)=p_i,\sum_{i=1}^kp(z=

2022-05-23 12:25:31 405

原创 机器学习——期望最大(EM)

机器学习——期望最大(EM)广义EMEM的推广期望最大算法的目的是解决具有隐变量的混合模型的参数估计(极大似然估计)。MLE对p(x∣θ)p(x|\theta)p(x∣θ)参数的估计记为:θMLE=argmaxθlogp(x∣θ)\theta_{MLE}=argmax_{\theta}logp(x|\theta)θMLE​=argmaxθ​logp(x∣θ)。EM算法对这个问题的解决方法是采用迭代的方法:θt+1=argmaxθ∫zlog⁡[p(x,z∣θ)]p(z∣x,θt)dz=Ez∣x,θt[lo

2022-05-22 16:26:46 264

原创 机器学习——概率图模型

机器学习——概率图模型有向图-贝叶斯网络概率图模型使用的图的方式表示概率分布。为了在图中添加各种概率,首先总结一下随机变量分布的一些规则:Sum Rule:p(x1)=∫p(x1,x2)dx2Product Rule:p(x1,x2)=p(x1∣x2)p(x2)Chain Rule:p(x1,x2,⋯ ,xp)=∏i=1pp(xi∣xi+1,xi+2⋯xp)Bayesian Rule:p(x1∣x2)=p(x2∣x1)p(x1)p(x2)Sum\ Rule:p(

2022-05-22 15:16:08 1411

原创 机器学习——指数族分布

机器学习——指数族分布一维高斯分布充分统计量和对数配分函数的关系充分统计量和极大似然估计最大熵指数族是一类分布,包括高斯分布、伯努利分布、二项分布、泊松分布、Beta分布、Dirichlet分布、Gamma分布等一系列分布。指数族分布可以写为统一的形式:p(x∣η)=h(x)exp⁡(ηTϕ(x)−A(η))=1exp⁡(A(η))h(x)exp⁡(ηTϕ(x))p(x|\eta)=h(x)\exp(\eta^T\phi(x)-A(\eta))=\frac{1}{\exp(A(\eta))}h(x)\

2022-05-20 16:50:01 1306

原创 机器学习——支持向量机

机器学习——支持向量机约束优化问题KKT条件Hard-margin SVMSoft-margin SVMKernel Method支撑向量机(SVM)算法三大宝:间隔、对偶、核技巧支持向量机(SVM)算法在分类问题中有着重要地位,其主要思想是最大化两类之间的间隔。按照数据集的特点:线性可分问题,如之前的感知机算法处理的问题线性可分,只有一点点错误点,如感知机算法发展出来的Pocket算法处理问题非线性问题,完全不可分,如在感知机问题发展处理的多层感知机和深度学习这三种情况对于SVM分别有下面三

2022-05-19 14:56:08 399

原创 机器学习——降维

机器学习——降维线性降维-主成分分析PCA损失函数SVD与PCoAp-PCA小结降维的思路来源于维度灾难的问题,我们知道n维球的体积为:CRnCR^nCRn那么在求体积与边长为2R2R2R的超立方体比值为:lim⁡n→0CRn2nRn=0\lim\limits_{n\rightarrow0}\frac{CR^n}{2^nR^n}=0n→0lim​2nRnCRn​=0这就是所谓的维度灾难,在高维数据中,主要样本都分布在立方体的边缘,所以数据集更加稀疏。(因为,维度越高的球,靠近边缘的空间越大,如果数

2022-05-18 14:42:46 480

原创 机器学习——线性分类

机器学习——线性分类线性分类二分类-硬分类-感知机算法二分类-硬分类-线性判别分析LDA二分类-软分类-概率判别模型-Logistic回归二分类-软分类-概率生成模型-高斯判别分析GDA二分类-软分类-概率生成模型-朴素贝叶斯线性分类对于分类任务,线性回归模型就无能为力了,但是我们可以在线性模型的函数进行后再加入一层激活函数,这个函数是非线性的,激活函数的反函数叫做链接函数。我们有两种线性分类的方式:硬分类,我们直接需要输出观测对应的分类。这类模型的代表为:线性判别分析(Fisher判别)感

2022-05-17 22:40:54 362

原创 机器学习——正则化

机器学习——正则化前言贝叶斯角度L1正则化L2正则化推导验证L1 LassoL2 Ridge(权重衰减)前言在实际应用中,如果样本容量不远远大于样本的特征维度,很可能造成过拟合,对这种情况,可以采用以下三个解决方式:丰富训练集数据特征选择,如PCA算法(降低维度)正则化正则化一般是在损失函数上加入正则化项(表示模型的复杂度对模型的惩罚)L1正则化——>主要是使得参数矩阵稀疏化,用于减少模型复杂度:L1:argminwL(w)+λ∣∣w∣∣1,λ>0L1:argmin_wL(w)

2022-05-12 15:24:48 404

原创 机器学习——马氏距离

机器学习——马氏距离前言马氏距离马氏距离的推导前言在介绍马氏距离之前,我们首先看如下概念:方差:方差是标准差的平方,而标准差的意义是数据集中各个点到均值点距离的平均值。反应的是数据的离散程度协方差:标准差与方差是描述一维数据的,当存在多维数据时,我们通常需要知道每个维数的变量中间是否存在关联。**协方差就是衡量多维数据集中,变量之间相关性的统计量。**比如说,一个人的身高与他的体重的关系,这就需要用协方差来衡量。如果两个变量之间的协方差为正值,则这两个变量之间存在正相关,若为负值,则为负相关。协

2022-05-11 21:40:41 1320

原创 机器学习——线性回归

机器学习——线性回归线性回归最小二乘法噪声为高斯分布的MLE一维的高斯分布p维高斯分布MLE极大似然估计线性回归假设数据集为:D={(x1,y1),(x2,y2),...,(xN,yN)}D = \{(x_1,y_1),(x_2,y_2),...,(x_N,y_N)\}D={(x1​,y1​),(x2​,y2​),...,(xN​,yN​)}后面我们记:X=(x1,x2,...,xN)T,Y=(y1,y2,...,yN)TX=(x_1,x_2,...,x_N)^T, Y=(y_1,y_2,...,

2022-05-10 18:12:00 256

原创 机器学习——评价指标

机器学习——评价指标评价指标准确率(Accuracy)精确率/查准率(Precision)查全率(Recall)F1-scoreROC和AUCPR曲线IOU和mIOUAP和mAPAUC的含义以及是否对正负样本比例敏感?评价指标真阳性(True Positive, TP):标签为正类,预测为正类假阳性(False Positive, FP):标签为负类,预测为正类(错检)假阴性(False Negative, FN):标签为正类,预测为负类(漏检)真阴性(True Negative, TN):标签

2022-05-02 13:32:02 1423

原创 机器学习——线性回归与逻辑回归

机器学习——线性回归与逻辑回归两者的优缺点逻辑回归LR推导回归和分类的区别逻辑回归特征是否归一化如何提升LR的模型性能逻辑回归为啥要做特征离散化最小二乘法在什么条件下与极大似然估计等价逻辑回归为什么不用平方损失函数LR可以处理非线性情况吗?LR的参数可以初始化0吗?两者的优缺点优点模型简单,原理容易理解计算代价不高,易于理解和实现缺点易过拟合特征很多的时候,效果 不好处理线性问题效果比较好,而对于更复杂的问题可能效果较差逻辑回归LR推导基本条件线性回归: ∑i=0mθixi\su

2022-04-28 20:39:59 1250

原创 VuKrpfJHsV

sad

2022-04-26 16:32:18 309

原创 机器学习——KNN

机器学习——KNNKNN的优缺点KNN概述KNN的K值怎么选KNN数据需要归一化吗?KNN三要素欧式距离与曼哈顿距离区别KNN的k设置过大会有什么问题KNN的优缺点优点:简单易用,相比其他算法,KNN算式比较简洁明了的算法模型训练速度快预测效果好对异常值不敏感缺点:对内存要求较高,因为该算法存储了所有训练数据预测阶段可能很慢对不相关的功能和数据规模敏感对数据量纲敏感,所以数据要先归一化KNN概述KNN的全称是K Nearest Neighbors,意思是K个最近的邻居,KNN的

2022-04-25 21:34:17 1032

原创 机器学习——决策树

机器学习——决策树理解决策树优缺点决策树概况ID3和C4.5的区别树模型对离散特征怎么处理的决策树出现过拟合的原因及解决办法如何对决策树进行剪枝决策树不需要归一化处理决策树与逻辑回归的区别决策树的损失函数理解决策树是一种分类方法,像一棵树一样进入不同的分支,然后直到叶子节点得到分类结果。那么如何进入不同的分支?这就是最重要的内容,涉及到节点(特征)的划分标准,有三种:最大信息增益、最大信息增益率、基尼系数。而这三种不同的划分标准就对应了三种典型决策树:ID3(最大信息增益)、C4.5(最大信息增益率)、

2022-04-24 14:10:55 924

原创 机器学习——模型优化

机器学习——模型优化模型压缩方法squeezeNet的Fire Module有什么特点?模型压缩方法低秩近似神经网络的基本运算卷积,实则就是矩阵运算,低秩近似的技术是通过一系列小规模矩阵将权重矩阵重构出来,以此降低运算量和存储开销。目前有两种常用的方法:一是Toeplitz矩阵(指矩阵中每条自左上至右下的斜线上的元素相同)直接重构权重矩阵,二是奇异值分解(SVD),将权重矩阵分解为若干个小矩阵。剪枝与稀疏约束剪枝是模型压缩领域中一种经典的后处理技术,典型应用如决策树的前剪枝和后剪枝。剪枝技术可以

2022-04-22 20:54:13 1449

原创 机器学习——朴素贝叶斯

机器学习——朴素贝叶斯朴素贝叶斯贝叶斯公式朴素贝叶斯的“朴素”怎么理解什么是拉普拉斯平滑法朴素贝叶斯的应用朴素贝叶斯对异常值敏不敏感先验概率与后验概率优点:算法逻辑简单,易于实现分类过程中时空开销小,分类准确率高,速度快朴素贝叶斯模型发源于古典数学理论,有稳定的分类效率对缺失数据不太敏感,算法也比较简单,常用于文本分类对小规模的数据表现很好,能处理多分类任务,适合增量式训练缺点:理论上,朴素贝叶斯模型与其他分类方法相比具有最小的误差率。但是实际上并非总是如此,这是因为朴素贝叶斯模型假设

2022-04-22 17:37:06 3390

原创 机器学习——PCA与LDA

机器学习——PCA与LDAPCA推导一个PCALDALDA的中心思想是什么LDA的优缺点LDA的步骤推导LDAPCA和LDA有什么区别PCA主成分分析(PCA)是一种多变量统计方法,它是最常用的降维方法之一,通过正交变换将一组可能存在相关性的变量数据转换为一组线性不相关的变量,转换后的变量被称为主成分可以使用两种方法进行PCA,分别是特征分解或奇异值分解(SVD)。PCA旨在找到数据中的主成分,并利用这些主成分表征原始数据,从而达到降维的目的。算法步骤假设有m条n维数据将原始数据按列组成n行m

2022-04-17 15:53:24 4240

原创 面试总结之特征工程

面试总结之特征工程特征工程有哪些遇到缺值的情况,有哪些处理方式样本不均衡的处理办法出现Nan的原因特征筛选,怎么找出相似性高的特征并去掉包含百万,上亿特征的数据在深度学习中怎么处理计算特征之间的相关性方法有哪些?特征工程有哪些数据预处理1. 处理缺失值2. 图片数据扩充3. 处理异常值4. 处理类别不平衡问题特征缩放1. 归一化2. 正则化特征编码1. 序号编码2. 独热编码3. 二进制编码4. 离散化特征选择1. 过滤式(filter):先对数据集进行特征选择,其过程与后

2022-04-16 11:39:14 731

原创 python面试总结

python面试总结python多线程能用多个cpu吗?python的垃圾回收机制python多线程能用多个cpu吗?python的多线程不能利用多核CPU,原因是python解释器使用了GIL(全局解释器锁),在任意时刻只允许单个python线程运行。无论系统有多少个CPU核心,python程序都只能在一个CPU上运行。python的垃圾回收机制python的垃圾回收机制是以:引入计数器为主,标记清除和分代回收为辅。方式1:引入计数:每个对象内部都维护了一个值,该值记录此对象被引用的次数,如果次

2022-04-14 19:53:03 1009

原创 PyTorch 21. PyTorch中nn.Embedding模块

PyTorch 21. PyTorch中nn.Embedding模块torch.nn.Embeddingtorch.nn.Embedding函数:torch.nn.Embedding(num_embeddings, embedding_dim, padding_idx=None, max_norm=None, norm_type=2, scale_grad_by_freq=False, sparse=False)参数解释:num_embeddings: 查询表的大小embedding_dim

2021-12-25 10:59:12 169

原创 torch.where能否传递梯度

**torch.where(conditions,x,y)**可以传递梯度**tensor.where(conditions)**不能传递梯度,是非差分函数

2021-12-21 21:54:54 940

原创 torch.where能否传递梯度

**torch.where(conditions,x,y)**可以传递梯度**tensor.where(conditions)**不能传递梯度,是非差分函数

2021-12-21 21:53:07 1024 1

原创 PyTorch 22. PyTorch常用代码段合集

PyTorch常用代码段合集导入包和版本查询可复现性显卡设置张量处理张量的数据类型张量基本信息命名张量数据类型转换torch.Tensor与np.ndarray转换Torch.tensor与PIL.Image转换从只包含一个元素的张量中提取值张量形变打乱顺序复制张量得到非零元素判断两个张量相等张量扩展多卡同步BN(Batch normalization)将已有网络的所有BN层改为同步BN层计算模型整体参数量导入另一个模型的相同部分到新的模型其他注意事项参考: https://zhuanlan.zhihu.

2021-12-17 14:38:29 791

原创 PyTorch 20. PyTorch技巧(持续更新)

PyTorch技巧(持续更新)查看模型每层输出详情梯度裁剪(Gradient Clipping)扩展单张图片的维度view()实现np.newaxis实现unsqueeze()实现独热编码防止验证模型时爆显存监控工具显存占用冻结某些层的参数对不同层使用不同学习率查看模型每层输出详情from torchsummary import summarysummary(your_model, input_size=(channels, H, W))input_size是根据自己的网络模型的输入尺寸进行设置

2021-12-15 20:32:40 1886

原创 PyTorch 19. PyTorch中相似操作的区别与联系

PyTorch 19. PyTorch中相似操作的区别与联系view() 和 reshape()总结expand()和repeat()expand()repeat()乘法操作二维矩阵乘法 torch.mm()三维带batch的矩阵乘法torch.bmm()多维矩阵乘法 torch.matmul()view() 和 reshape()写在开头:有一篇大佬的总结非常到位:博客总结view() 在操作tensor时,需要tensor是内存连续的,而且在进行尺寸变换时,view()操作不会新开辟内存空间

2021-12-09 11:47:23 968

原创 PyTorch 18. torch.backends.cudnn

PyTorch 18. torch.backends.cudnn写在开头准则背景知识cuDNN卷积运算torch.backends.cudnn.benchmark放置位置写在开头torch.backends.cudnn.benchmark=True当该参数设为True时,网络会在初始时寻找最适合当前网络操作的卷积计算方法,能够提高网络的训练效率;但是当输入图像尺寸不断发生变化时,采用该参数会减慢网络训练速度。准则如果网络的输入数据维度或类型上变化不大(也就是对输入数据初始化时同一数据尺寸),设置

2021-12-08 11:23:45 413

原创 PyTorch 17. GPU并发

GPU并发多GPU运算的分发并行机制torch.nn.DataParallel使用torch.distributed加速并行训练:使用方式初始化Dataloader模型的初始化同步BN多机多卡DDP(DistributedDataParallel)使用apex加速(混合精度训练,并行训练,同步BN):apex的使用Amp:Automatic Mixed PrecisionDistributed TrainingSynchronized Batch NormalizationCheckpointing多GP

2021-12-06 13:32:53 1781

原创 PyTorch 15.深度学习中常见的python操作

PyTorch 15.深度学习中常见的python操作Pickle模块Python调试器pdb单步执行模式单刀直入Pickle模块说明:Python中的pickle模块实现了基本的数据序列与反序列化,序列化对象可以在磁盘上保存对象,并在需要的时候读取出来。任何对象都可以执行序列化操作。dump()方法pickle.dump(obj, file, [,protocol])参数定义:obj:序列化对象,将对象obj保存到文件file中去file:file表示保存到的类文件对象,file必须有wr

2021-12-05 12:14:58 1077

20210215_work.zip

20210215_work.zip

2021-02-22

Image-Registration-master.zip

包含多个图像匹配的代码,可以较好的匹配同源图像,包括SAR图像的匹配配准,有matlab和python的双版本代码程序

2019-12-06

MFC基于对话框的基础操作(含程序的登陆注册)

此程序包含MFC的初学的基本知识,包括对话框插入图片,修改程序图标,程序初始的登陆注册界面,以及mfc的常识性操作。

2018-09-06

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除