自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(44)
  • 收藏
  • 关注

原创 Deepfake idea

Deepfake ideaMotivationSemantic informationDataLoss functionsModelMotivation考虑语义信息,在弱监督信息中尽可能挖掘有效信息;一种更贴近实际的实验设定;在更为精确的数据集上时(标注成本较高,比如为CUB200种鸟类标注,需要很高的专业知识水平,此时应用CLL),反标记监督信息更为有用:e.g. 鸟类识别任务:给定一张鸟类图片:1.被告知不是汽车,2.被告知不是麻雀。显然2的信息更有用,更符合CLL问题初衷。Semant

2022-05-23 18:07:12 220

原创 复分析(一)

复数Euler公式:eiπ+1=0e^{i\pi}+1=0eiπ+1=0复数的计算加减:乘除:模乘除 角加减幂:zn=rn(cosnθ+isinnθ)z^n=r^n(cosn\theta+isinn\theta)zn=rn(cosnθ+isinnθ)开方:z1n=r1n(cosθ+2kπn+isinθ+2kπn),k=0,1,⋯ ,n−1z^{\frac{1}{n}}=r^{\frac{1}{n}}(cos\frac{\theta+2k\pi}{n}+isin\frac{\theta+2k\p

2021-08-02 18:09:48 347

原创 公共基础考试题目

试卷一分析一、求二、设复变函数f(z)f(z)f(z)为整函数,且存在正整数nnn以及常数R>0,M>0R>0,M>0R>0,M>0,使得当∣z∣>R|z|>R∣z∣>R时,有∣f(z)∣≤M∣z∣n|f(z)|\leq M|z|^n∣f(z)∣≤M∣z∣n.试证明: f(z)f(z)f(z)是一个至多nnn次的多项式或一常数.三、陈述Lebesgue控制收敛定理并证明四、陈述开映射定理并证明:设∥⋅∥1\|\cdot\|_1∥⋅∥1​和∥

2021-07-20 17:46:19 324 1

原创 Zero-shot Learning零样本学习 论文阅读(九)——Semantic Projection Network for Zero- and Few-Label

Zero-shot Learning零样本学习 论文阅读(九)——Semantic Projection Network for Zero- and Few-Label算法模型算法思路视觉语义嵌入语义投影这篇CVPR2019的论文提出的模型SPNet主要解决了零标签语义分割ZLSS和少标签语义分割FLSS。算法模型算法思路整个模型一共分为两个部分,视觉语义嵌入和语义映射。首先,学习一个视觉语义嵌入模块,在词嵌入空间中生成中间特征映射。其次,通过一个固定词嵌入投影矩阵将这些特征映射投影到类概率中。在测

2021-02-11 02:33:24 453

原创 Zero-shot Learning零样本学习 论文阅读(八)——Zero-Shot Semantic Segmentation

Zero-shot Learning零样本学习 论文阅读(八)——Zero-Shot Semantic Segmentation算法模型算法思路算法流程这是一篇关于基于生成方式的零样本语义分割的论文。算法模型算法思路Zero-shot learning解决了训练实例集并非包含所有类别的识别问题。通过使用类别的高级描述,可以使新类别(unseen classes)与可以使用训练实例的类别(seen classes)相关联来实现这一点,通常利用中间表示形式即有关类别信息的语义信息来完成学习。将语义信息

2021-02-09 19:25:22 827

原创 Zero-shot Learning零样本学习 论文阅读(七)——Unsupervised Domain Adaptation for Zero-Shot Learning

Zero-shot Learning零样本学习 论文阅读(七)——Unsupervised Domain Adaptation for Zero-Shot Learning背景字典稀疏学习算法模型算法思路设定算法原理这篇论文运用了一个unsupervised domain adaptation的技巧结合正则化字典稀疏学习,主要解决zero-shot learning中的domain shift问题。背景字典稀疏学习稀疏表示假如我们用矩阵X={x1,x2,⋯ ,xn}∈Rd×nX=\{x_1,x_

2021-01-12 03:36:13 571

原创 Zero-shot Learning零样本学习 论文阅读(六)——Feature Generating Networks for Zero-Shot Learning

Zero-shot Learning零样本学习 论文阅读(六)——Feature Generating Networks for Zero-Shot Learning背景生成对抗网络GAN算法模型思路模型这篇CVPR 2018年发表的论文提出用对抗生成网络GAN来在特征空间生成数据的思想来解决zero-shot learning的问题。背景生成对抗网络GAN生成对抗网络GAN是源自博弈论中的零和博弈,由两部分组成,分别是生成模型G(generative model)和判别模型(discriminat

2021-01-08 20:05:30 413

原创 Zero-shot Learning零样本学习 论文阅读(五)——DeViSE:A Deep Visual-Semantic Embedding Model

Zero-shot Learning零样本学习 论文阅读(五)——DeViSE:A Deep Visual-Semantic Embedding Model背景Skip-gram算法算法思路原理这篇2013年的文章提出了DeViSE这种方法,主要是综合了传统视觉识别的神经网络和词向量处理(word2vec)中的skip-gram模型,实现了一个视觉和语义兼顾的ZSL模型,取得了较好的效果,时至今日准确率仍然可以排在前面。背景Skip-gramSkip-gram是Word2Vec模型中的一种,给定一个

2021-01-05 19:30:52 1060

原创 Zero-Shot Learning零样本学习 学习进展汇总

Zero-Shot Learning零样本学习 学习进展汇总基本概念什么是zero-shot learning?基本概念定义语义空间(Semantic Spaces)工程语义空间(Engineered Semantic Spaces)学习语义空间(Learned Semantic Spaces)最大后验概率论文阅读(一)DAP&IAP算法概要前提目标思路具体原理DAP(Directed attribute prediction)IAP(Indirected attribute prediction)

2020-12-31 16:30:53 1145

原创 Zero-shot Learning零样本学习 论文阅读(四)——Zero-Shot Recognition using Dual Visual-Semantic Mapping Paths

Zero-shot Learning零样本学习 论文阅读(四)——Zero-Shot Recognition using Dual Visual-Semantic Mapping Paths背景流形学习语义间隔(semantic gap)算法原理算法思路符号设定算法流程这篇2017年的论文提供了解决semantic gap问题的简单做法,所谓的semantic gap也就是从图片中提取的低层特征到高层语义之间存在的“语义鸿沟”问题。这与上一篇论文提到的领域漂移问题都是zero-shot learning技

2020-12-31 03:10:50 660 1

原创 Zero-shot Learning零样本学习 论文阅读(三)——Semantic Autoencoder for Zero-Shot Learning

江浩然 \quad \quad \quad \quad \quad 统计1701班 \quad \quad \quad \quad \quad 201714020111

2020-12-27 01:26:28 1135

原创 Zero-shot Learning零样本学习 论文阅读(二)——An embarrassingly simple approach to zero-shot learning

Zero-shot Learning零样本学习 论文阅读(二)——An embarrassingly simple approach to zero-shot learningESZSL算法概况背景前提思路算法原理模型求解损失函数LLL正则化项Ω\OmegaΩ参考文献这篇论文提出了一种新的zero-shot learning方法“Embarrassingly simple Zero-Shot Learning”,后来被简写作EsZSL。之所以叫做“embarrassingly simple”,是因为这种新

2020-12-25 00:14:36 1418

原创 机器学习 小白Python学习笔记(一) ———— 第一章 绪论 & 第二章 模型评估与选择

机器学习 小白Python学习笔记(一)——第一章 绪论 & 第二章 模型评估与选择写在最前第一章 绪论 & 第二章 模型评估与选择写在最前博主是统计专业本科在读,之前利用一个学期的时间粗略地学习机器学习一遍,了解了书中知识理论的基本情况。准备申请机器学习相关专业的研究生,无奈第一遍的学习太过于浮于表面,于是决定回锅学习第二遍!这一遍的重点将放在对算法流程的理解与Python的实现,希望通过这一遍的学习之后,能够独立搭建起相关算法的框架。概括地说,就是一个小白学习Python实现机器

2020-12-22 16:02:43 372

原创 Zero-shot Learning零样本学习 论文阅读(一)——Learning to detect unseen object classes by between-class attribute

Zero-shot Learning零样本学习 论文阅读(一)——Learning to detect unseen object classes by between-class attribute transfer算法概要前提目标思路DAPLearning to detect unseen object classes by between-class attribute这篇文章首次提出了Zero-shot Learning这一问题的概念,并给出了基于物体属性的解决方法。算法概要前提(x1,l1

2020-12-22 01:53:20 817 1

原创 最大后验估计MAP

最大后验估计MAP是最常用的几个参数点估计之一,基本原理由贝叶斯定理而来,先看贝叶斯公式:P(θ∣x)=P(x∣θ)P(θ)P(x)P\left(\theta \mid \boldsymbol x\right)=\frac{P\left(\boldsymbol x \mid \theta\right) P\left(\theta\right)}{P(\boldsymbol x)}P(θ∣x)=P(x)P(x∣θ)P(θ)​其中,我们将P(θ)P\left(\theta\right)P(θ)称为先验概

2020-12-21 22:05:01 515

原创 Zero-Shot Learning零样本学习 入门 基本概念

这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Mar

2020-12-19 18:25:16 1524 5

转载 STK-SNAP的基本使用指南 —— 标注

https://blog.csdn.net/qianshuqinghan/article/details/104716602

2020-10-20 05:08:16 425

原创 Dicom文件(.IMA)批量转化为NIFTI(.nii)文件

@toc动机因为NIFTI的文件是三维的图像,而DICOM的文件为二维的多张图像,所以相对于DICOM文件,NIFTI文件训练的张数更少、更加易用于机器学习。文件概况我的文件大概是图中的样子,在xuezhong文件夹中有一些子文件夹,……,储存着一些.IMA文件(.IMA文件其实就是Dicom文件的一种,可以直接按照Dicom文件进行操作)。步骤第一步:我们首先要获取存储影像图片的所有文件夹的路径;第二步:将文件夹内的影像转化为.nii格式.具体操作第一步我们首先利用os.list

2020-10-20 05:04:23 6397 6

原创 stk-snap基本使用方法(一) ——下载安装&读取文件与标注

stk-snap基本使用方法下载安装使用打开文件读取标注文件下载安装首先在官网http://www.itksnap.org/pmwiki/pmwiki.php?n=Downloads.SNAP3进行下载,选择合适的版本下载并进行安装。使用打开文件进入软件的界面后,点击 File ,选择 Open Main Image. (也可以直接将文件拖入软件界面)选择文件,可读取的格式有.dcm、.nii、.mha、.gipl等等.读取好之后的界面:读取标注文件如果我们已有之前做的标注文件,比如

2020-10-20 04:43:53 998

原创 交叉验证——ESL chapter7.10

交叉验证交叉验证是估计预测误差最简单且广泛使用的方法。通常情况下,我们的数据量都是不足够多的,如果在本来就不多的数据集中再划分出一部分作为验证集,那可供学习的数据就更少了。为了解决这一问题,K-折交叉验证将数据集分成容量大致相等的K个部分,如下图:对于第kkk(k=1,2,⋯ ,Kk=1,2,\cdots,Kk=1,2,⋯,K)部分,我们首先用 其他K-1个部分的数据对学习器进行训练,再预测第kkk部分数据时计算预测误差。依次通过k=1,2,⋯ ,Kk=1,2,\cdots,Kk=1,2,⋯,K循

2020-10-15 21:41:29 737

原创 《概率论与数理统计》重要概念复习

《概率论与数理统计》重要概念复习概率随机变量及其分布大数定律与中心极限定理大数定律中心极限定理统计量及其分布三大统计分布充分性参数估计点估计与无偏性最大似然估计概率概率具有非负性、正则性、可列可加性.确定概率的方法:古典方法、几何方法、主观方法.随机变量及其分布分布函数的性质:1)单调性 2)有界性 3)右连续性分布列的性质:非负性、正则性.随机变量的数学期望是分布一种位置特征数,是消除随机性的主要手段.切比雪夫不等式.具有可加性的分布:二项分布、正态分布、泊松分布、二项分布、卡方分

2020-09-22 21:50:53 1108

原创 《数学分析(下)》重要概念复习

《数学分析(下)》重要概念复习数项级数函数列与函数项级数多元函数的极限与连续多元函数微分学方向导数与梯度二元函数的极值问题隐函数定理重积分数项级数判断收敛:柯西准则正项级数判断收敛:比较原则、根式判别法、 比式判别法、积分判别法、拉贝判别法交错级数判断收敛:莱布尼茨判别法一般级数判断收敛:阿贝尔判别法、狄利克雷判别法函数列与函数项级数收敛、一致收敛、内闭一致收敛一直收敛性判别法:魏尔特斯拉判别法、阿贝尔判别法、狄利克雷判别法一致收敛函数列的性质:连续性、可积性、可微性多元函数的极

2020-09-21 02:16:10 1420

原创 《数学分析(上)》重要概念复习

《数学分析(上)》重要概念复习实数集与函数实数数集·确界原理函数数列极限函数极限函数极限的性质函数极限存在的条件函数的连续性连续函数的性质一致连续导数和微分微分中值定理和函数的单调性拉格朗日定理和函数单调性柯西中值定理不定式极限泰勒公式函数的极值函数的凹凸性不定积分定积分可积条件定积分的性质反常积分无穷积分实数集与函数实数任何实数都可用一个确定的无限小数表示.实数的性质:对加减乘除四则运算是封闭的,有序的,传递性,阿基米德性(对任意实数aaa,bbb若b>a>0b>a>0b

2020-09-20 00:32:32 4144 5

原创 《高等代数》重要概念复习

《高等代数》重要概念复习线性方程组线性方程组解的个数:线性相关性:矩阵的秩线性方程组有解判别定理线性方程组解的结构矩阵矩阵的计算矩阵的逆等价矩阵正交矩阵矩阵对角化相似矩阵特征值与特征向量矩阵可对角化条件实对称矩阵的对角化二次型二次型及其矩阵表示线性方程组线性方程组解的个数:如果齐次线性方程组中方程的个数少于未知量的个数,则它有非零解.方程个数与未知量个数相等时,有非零解的充分必要条件是,系数行列式的值为0.线性相关性:如果有数域中的数k1,k2,⋯k_1,k_2,\cdotsk1​,k2​

2020-09-17 23:51:47 2066

原创 陈宝林《最优化理论与算法》超详细学习笔记 (八)————最优性条件

陈宝林《最优化理论与算法》超详细学习笔记 (八)————最优性条件无约束问题的极值条件必要条件二阶充分条件充要条件约束极值问题的最优性条件不等式约束的一阶最优性条件无约束问题的极值条件考虑非线性规划问题minf(x),x∈Enmin f(x), x\in E^nminf(x),x∈En其中f(x)f(x)f(x)是定义在EnE^nEn上的实值函数,这就是一个无约束极值问题(UNLP)。必要条件Th7.1.1(非极小点的充分条件) 设f(x)在点x处可微, 若存在方向d(≠0)∈Rn,d (\

2020-09-10 02:02:32 1490

原创 《机器学习》 小白Python学习笔记(十三) ———— 集成学习 课后题8.3&8.5 Python实现

《机器学习》 小白Python学习笔记(十三) ———— 集成学习 课后题8.3&8.5 Python实现8.3从网上下载或自己编程实现AdaBoost,以不剪枝决策树为基学习器,在西瓜数据集3.0a上训练一个AdaBoost集成,并与图8.4进行比较。8.5试编程实现Bagging,以决策树桩为基学习器,在西瓜数据集3.0a上训练一个Bagging集成,并与图8.6进行比较。自己手动编写的代码还没有写好(后补),先利用scikit-learn库对西瓜数据集3.0a进行bagging和bo

2020-09-09 19:40:41 1037 2

原创 《机器学习》小白Python学习笔记(十二) ————第八章集成学习

《机器学习》小白Python学习笔记(十二) ————第八章 集成学习BaggingBootstrap SampleBoostingStacking集成学习(ensemble learning)是通过构建并结合多个学习器来完成学习任务。其思路是通过合并多个模型来提升机器学习性能,这种方法相较于单个模型通常能获得更好的效果。一般的说,根据目的和功能分类,集成学习有三种:bagging 通常用于减小方差boosting 通常用于减小偏差stacking 通常用于提升预测结果根据模型组成结构分类有两

2020-08-24 01:57:48 336

原创 陈宝林《最优化理论与算法》超详细学习笔记 (七)————第五章 运输问题

陈宝林《最优化理论与算法》超详细学习笔记 (七)————第五章 运输问题第1节 运输问题的数学模型第2节 表上作业法2.1 确定初始基可行解2.2 最优解的判别2.3 改进的方法——闭回路调整法2.4 表上作业法计算中的问题第3节 产销不平衡的运输问题及其求解方法第1节 运输问题的数学模型已知有mmm个生产地点Ai,i=1,2,…,mA_i, i=1,2,…,mAi​,i=1,2,…,m。可供应某种物资,其供应量(产量)分别为ai,i=1,2,…,ma_i, i=1,2,…,mai​,i=1,2,

2020-08-06 13:23:57 2451

原创 《机器学习》 小白Python学习笔记(十一) ———— 朴素贝叶斯 & 半朴素贝叶斯AODE分类器 Python实现

《机器学习》 小白Python学习笔记(十) ———— 贝叶斯算法 & EM算法 Python实现课后题数据集朴素贝叶斯算法代码半朴素贝叶斯(AODE)分类器代码课后题试编程实现拉普拉斯修正的朴素贝叶斯分类器和半朴素贝叶斯分类器中的AODE分类器,并以⻄瓜数据集3.0为训练集,对P.151“测1”样本进⾏判别。数据集编号 色泽 根蒂 敲声 纹理 脐部 触感 密度 含糖率 好瓜0 1 青绿 蜷缩 浊响 清晰 凹陷 硬滑 0.697 0.460

2020-08-05 20:03:36 1235

原创 《机器学习》 小白Python学习笔记(十) ————EM算法

《机器学习》 小白Python学习笔记(十) ————EM算法简介算法原理算法流程简介作为数据挖掘十大算法之一的EM算法的全称是Expectation Maximization Algorithm,也就是期望最大算法,算法包括两个步骤,首先是期望步(E步),然后是极大步(M步)。EM算法最初是为了解决在样本数据集中出现缺失值时进行参数估计的问题。基本思路是:首先根据已经给出的观测数据,估计出模型参数的值,然后再根据上一步估计出的参数值估计出数据中的缺失值,然后再根据原有数据和估计的缺失值对模型参数进行

2020-08-01 02:29:28 268

原创 《机器学习》 小白Python学习笔记(九) ————第七章 贝叶斯分类器

《机器学习》小白Python学习笔记(一) ————第七章 贝叶斯分类器引言贝叶斯决策论基于最小风险的贝叶斯决策基于最小错误率的贝叶斯决策朴素贝叶斯分类器半朴素贝叶斯分类器引言说到贝叶斯分类器,必然离不开的是贝叶斯公式:P(Bi∣A)=P(A∣Bi)P(Bi)∑j=1nP(A∣Bj)P(Bj),i=1,2,⋯ ,nP\left(B_{i} \mid A\right)=\frac{P\left(A \mid B_{i}\right) P\left(B_{i}\right)}{\sum_{j=1}^{n

2020-07-30 16:40:55 369

原创 (周志华《机器学习》西瓜书 小白Python学习笔记(八) ———— 第六章 支持向量机SVM LIBSVM实现以及结果解读(课后题6.2)

周志华《机器学习》西瓜书 小白Python学习笔记(八) ———— 第六章 支持向量机LIBSVM实现

2020-07-20 18:19:08 1161 1

原创 陈宝林《最优化理论与算法》超详细学习笔记 (四)————第四章 对偶理论

陈宝林《最优化理论与算法》超详细学习笔记 (四)————第四章 对偶理论第四章 对偶理论和灵敏度分析1. 对偶问题的提出2. 线性规划的对偶理论2.1 原问题与对偶问题的关系2.2 对偶问题的基本性质3. 对偶单纯形法第四章 对偶理论和灵敏度分析1. 对偶问题的提出什么是对偶?对同一事物(或问题),从不同的角度(或立场)提出相对的两种不同的表述。例如:在平面内,矩形的面积与其周长之间的关系,有两种不同的表述方法。周长一定,面积最大的矩形是正方形。面积一定,周长最短的矩形是正方形。这种表

2020-07-20 01:40:30 2020 1

原创 《最优化理论与算法》超详细学习笔记 (六)————序列最小化算法SMO(支持向量机SVM)

《最优化理论与算法》超详细学习笔记 (六)————序列最小化算法SMO什么是SMO算法以及基本思路SMO具体求解思路变量选取相关链接:支持向量机SVM什么是SMO算法以及基本思路序列最小化(SMO)算法是一种解决二次优化问题的算法,其最经典的应用就是在解决SVM问题上。SVM推导到最后,特别是使用了拉格朗日因子法求解之后便不难发现其最终等效为一个二次规划问题。为了解决普通二次规划算法计算量大的问题,1998年John Platt发布了一个称为SMO的强大算法,用于训练SVM分类器。我们看到SVM最终

2020-07-19 17:44:38 525 1

原创 周志华《机器学习》西瓜书 小白Python学习笔记(七) ———— 第六章 支持向量机SVM

周志华《机器学习》西瓜书 小白Python学习笔记(七) ———— 第六章 支持向量机SVM什么是SVMSVM求解过程转化为Lagrange对偶问题Lagrange对偶问题求解1.min⁡w,bL(w,b,α)\min _{\boldsymbol{w}, b} L(\boldsymbol{w}, b, \boldsymbol{\alpha})minw,b​L(w,b,α)2. max⁡αi{min⁡w,bL(w,b,α)}\max_{\alpha_i}\{\min _{\boldsymbol{w},

2020-07-19 12:48:23 446 2

原创 陈宝林《最优化理论与算法》超详细学习笔记 (五)————最优性条件 之 KKT条件

陈宝林《最优化理论与算法》超详细学习笔记 (五)————最优性条件 之 KKT条件Lagrange对偶问题原问题Lagrange函数Lagrange对偶函数强/弱对偶性弱对偶性强对偶性最优性条件互补松弛性KTT条件(Karush-Kuhn-Tucker)Lagrange对偶问题原问题对于一个最优化问题:min⁡f0(x)s.t.fi(x)≤0,i=1,⋯ ,mhi(x)=0,i=1,⋯ ,p\begin{array}{ll}\min & f_{0}(x) \\ \text {s.t.} &a

2020-07-18 23:42:00 1388 1

原创 陈宝林《最优化理论与算法》超详细学习笔记 (三)————单纯形法

陈宝林《最优化理论与算法》超详细学习笔记 (三)————单纯形法数学模型最优性检验与解的判别最优解的判别定理无穷多最优解判别定理无界解判别定理数学模型给定标准形式的LPmin⁡cx\min {\mathcal{ cx}}mincxs.t. Ax=b,A x=b,Ax=b, i=1,2,…,mi=1,2, \dots, mi=1,2,…,m, x≥0x \geq 0x≥0x=(xB,xN),xBx=\left(x_{B}, x_{N}\right), x_{B}x=(xB​,xN​),xB​ 为

2020-07-07 13:04:47 1751 2

原创 周志华《机器学习》西瓜书 小白Python学习笔记(六) ———— 第五章 神经网络 课后习题5.5 python实现 pytorch

周志华《机器学习》西瓜书 小白Python学习笔记(六) ———— 第五章 神经网络 python代码 pytorch伪代码手工搭建Pytorch 搭建作为神经网络中最为广泛使用的BP神经网络,本文使用西瓜数据集3.0(课后题5.5)通过手工和Pytorch两种方式搭建BP神经网络。伪代码输入: 训练集 D={(xk,yk)}k=1mD=\left\{\left(\boldsymbol{x}_{k}, \boldsymbol{y}_{k}\right)\right\}_{k=1}^{m}D={(x

2020-07-06 13:30:23 1817 2

原创 周志华《机器学习》西瓜书 小白Python学习笔记(五) ———— 第五章 神经网络

现占坑

2020-06-26 10:01:00 1179 2

原创 陈宝林《最优化理论与算法》超详细学习笔记 (二)————补充知识(凸集) & 第二章 线性规划的基本性质

@[TOC](陈宝林《最优化理论与算法》超详细学习笔记 (二)————补充知识(凸集) & 第二章 线性规划的基本性质)补充知识凸集设 S 为 n 维欧氏空间RnR^nRn中一个集合。 若对 S 中任意两点,联结它们的线既仍属于 S; 换言之,对 S 中任意两点 x(1),x(2)\bf{x}^{(1)},\bf{x}^{(2)}x(1),x(2) 及每个实数λ∈[0,1]\lambda \in[0, \quad1]λ∈[0,1] 都有:λx(1)+(1−λ)x(2)∈S\lambda

2020-05-09 22:50:20 1765

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除