自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 AUC含义的通俗理解

AUC含义的通俗理解假设有一个分类器,并且该分类器可以得到将一个样本预测为正的概率,并将此概率称为这个样本的得分。首先说一下AUC的含义:随机给定一个正样本和一个负样本,用一个分类器进行分类和预测,该正样本的得分比该负样本的得分要大的概率。那么应该如何理解这个含义呢?首先我们要知道ROC曲线是怎么画出来的。而AUC即ROC曲线下面的面积。1. 混淆矩阵(图源:https://www.z...

2020-03-17 20:24:16 22893

原创 花式使用sort函数将数组元素从大到小排序的方法

花式使用sort函数将数组元素从大到小排序的方法#include <iostream>#include <functional>#include <algorithm>using namespace std;using namespace placeholders;class Cmp {public: bool operator()(i...

2020-03-14 20:11:15 760

原创 softmax函数及交叉熵函数求导

softmax函数这里以神经网络多分类问题为例,假设输出层有nnn个神经元,输出为z1,z2,...,znz_1,z_2,...,z_nz1​,z2​,...,zn​,经过softmax函数后的输出为a1,a2,...,ana_1,a_2,...,a_na1​,a2​,...,an​,aia_iai​的计算公式为:ai=ezi∑j=1nezja_i=\frac{e^{z_i}}{\sum_{j...

2019-05-27 11:21:52 580

原创 sigmoid函数、tanh函数、softmax函数及求导

sigmoid函数和tanh函数都是激活函数,接收一个输入,产生一个输出。这里的求导是对激活函数求导。而softmax函数是一个多输入多输出的函数,这里提到的求导是对经过softmax函数后进行交叉熵计算得到的损失函数求导。sigmoid函数及求导sigmoid激活函数形式为:σ(x)=sigmoid(x)=11+e−x\sigma (x)=sigmoid(x)=\frac{1}{1+e^{...

2019-05-27 10:53:19 3534

原创 Python中list和tuple的区别

概念上的区别list和tuple都是可迭代对象中的容器序列,能够存放不同类型的数据,并且存的是它们所包含的任意类型的对象的引用。这算是两者之间的一个相同点。两者在概念上的不同则是:list中的元素可以改变,也可以对list进行增删操作,如在list末尾增加元素、在list中插入元素、删除某个元素。tuple,也叫元组,可以简单的理解为不可变的列表(list)。一旦定义后,tuple中的元素...

2019-05-21 22:52:34 4621

原创 线性回归与岭回归参数向量公式推导

线性回归是一种常用的机器学习回归算法,其原理是通过输入和输出学习回归函数,确定回归参数向量w\mathbf{w}w和截距bbb。对于新的样本x\mathbf{x}x,其预测值为y^=xw+b\hat{y}=\mathbf{x}\mathbf{w}+by^​=xw+b。式中,x\mathbf{x}x是n−1n-1n−1维横向量,x=(x1,x2,...,xn−1)\mathbf{x}=(x_1,x_...

2019-05-20 19:39:48 1210

原创 Python中的一些特殊方法

Python解释器碰到特殊的句法时,会使用特殊方法去激活一些基本的对象操作,这些特殊方法的名字以两个下划线开头,以两个下划线结尾,如__getitem__。考虑一下例子,这个例子中用到了__getitem__和__len__两个特殊方法。import collectionsCard = collections.namedtuple('Card', ['rank', 'suit'])cl...

2019-05-19 21:33:28 294

原创 核岭回归 (Kernel Ridge Regression) 以及sklearn中sklearn.kernel_ridge.KernelRidge用法

本文核岭回归原理部分总结自《数据挖掘——使用机器学习工具与技术》(原书第四版)一书7.2.4节。核岭回归(Kernel Ridge Regression)线性回归对于普通的线性回归,我们在训练的时候是最小化平方误差损失函数:∑i=1n(yi−Wxi⃗)2\sum_{i=1}^n (y_i-W\vec {x_i})^2i=1∑n​(yi​−Wxi​​)2其中W为参数矩阵。接下来我们要依次为...

2019-03-12 21:13:59 11914 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除