自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 logistic回归

一.二项logistic回归模型:  1.  现有样本x,它的预测值为0或1,预测为1的概率为p,使事件的对数几率;    等于x的线性模型预测值:         ,这样得到   ;    这个函数称为logistic函数;图像如下:            线性函数的值接近正无穷,概率值接近1;线性函数的值接近负无穷,概率值接近0;    这个模型就是logistic模型;        对于二...

2018-06-21 18:55:29 277

转载 机器学习中正则化项L1和L2的直观理解

正则化(Regularization)机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种,一般英文称作ℓ1ℓ1-norm和ℓ2ℓ2-norm,中文称作L1正则化和L2正则化,或者L1范数和L2范数。L1正则化和L2正则化可以看做是损失函数的惩罚项。所谓『惩罚』是指对损失函数中的某些参数做一些限制。对于线性回归模型,使用L1正则化的模型建叫做Lasso回归,使用L2正则化的...

2018-06-21 12:22:33 204

原创 线性回归

一.基本过程:    直接附上培训课程ppt截图:    1.            线性回归不能解决,分类问题,即Y=1,2,3,时,数值大小没有意义的情况;        2.                      解释:是有规律的,看做一个constant值,是现实中的样本,具有随机性;所以他们直接的差服从高斯分布;                3.运算:               ...

2018-06-21 12:06:35 471

转载 梯度下降法

一.梯度下降法:    1.梯度的由来:        射线L的方向余弦是,二元函数沿着这个射线,自变量变化为;        方向导数是这个函数沿着这个方向的变化率,它的方向导数为:               沿着各个方向,二元函数始终有一个方向导数,它的大小决定这个函数的变化率        上式可以写成两个向量的乘积:                由于 是单位向量,所以当和  方向相同时...

2018-06-20 23:18:57 766

转载 window10安装pytorch

首先安装Anaconda3,然后下载Pytorch的conda 安装包,地址:pytorch conda安装包—pytorch-0.1.12-py36_0.1.12cu80.tar.bz2 下载完毕之后,直接cmd进入到pytorch-0.1.12-py36_0.1.12cu80.tar.bz2对应的目录,执行以下命令:conda install numpy mkl cfficonda inst...

2018-06-20 15:51:56 241

原创 python数组基本操作总结

一.列表,元祖,:    1.元祖:        (1)创建:                tuple01 = ()#创建空元组                    tuple01 = (2,) #元组中只包含一个元素时,需要在元素后面添加逗号                tuple01 = ('joe','susan','black','monika')        (2)将元组转换为...

2018-06-19 18:26:42 81799 3

转载 sklearn朴素贝叶斯类库使用小结

sklearn朴素贝叶斯类库使用小结2018年06月10日 在scikit-learn中,提供了3中朴素贝叶斯分类算法:GaussianNB(高斯朴素贝叶斯)、MultinomialNB(多项式朴素贝叶斯)、BernoulliNB(伯努利朴素贝叶斯)1、高斯朴素贝叶斯:sklearn.naive_bayes.GaussianNB(priors=None)①利用GaussianNB类建立简单模型[p...

2018-06-10 21:43:38 482

原创 朴素贝叶斯以及它的三个模型

一.先验概率和后验概率理解:先验:统计层次上的经验而知当下发生的概率;后验:当下由因及果的概率;举例:1)先验——根据若干年的统计(经验)或者气候(常识),某地方下雨的概率;2)似然——下雨(果)的时候有乌云(因)的概率,即已经有了果,对证据发生的可能性描述;3)后验——根据天上有乌云(原因),下雨(结果)的概率;后验 ~ 先验*似然 : 存在下雨的可能(先验),下雨之前会有乌云(似然)~ 通过现...

2018-06-10 19:29:30 1246

转载 python调用其他文件函数或类

B.py调用A.py的函数或类在同一个文件夹下调用函数:A.py文件:[python] view plain copydef add(x,y):      print('和为:%d'%(x+y))  B.py文件:[python] view plain copyimport A  A.add(1,2)  或[python] view plain copyfrom A import add  add...

2018-06-10 14:47:57 46969

原创 二分的kmeans、Kmeans++、

一.二分KMeans:            算法的主要思想是:首先将所有点作为一个簇,然后将该簇一分为二。之后选择能最大限度降低聚类代价函数(也就是误差平方和)的簇划分为两个簇。以此进行下去,直到簇的数目等于用户给定的数目k为止。以上隐含的一个原则就是:因为聚类的误差平方和能够衡量聚类性能,该值越小表示数据点越接近于他们的质心,聚类效果就越好。所以我们就需要对误差平方和最大的簇进行再一次划分,因...

2018-05-24 20:05:09 4429

转载 聚类算法-kmeans

K-means(k均值)算法   k-means是划分方法中较经典的聚类算法之一。由于该算法的效率高,所以在对大规模数据进行聚类时被广泛应用。目前,许多算法均围绕着该算法进行扩展和改进。   k-means算法以k为参数,把n个样本分成k个簇,使簇内具有较高的相似度,而簇间的相似度较低。k-means算法的处理过程如下:首先,随机地 选择k个样本,每个样本初始地代表了一个簇的平均值或中心;对剩余的...

2018-05-22 17:30:52 1125

转载 机器学习中的距离公式

1. 欧氏距离,最常见的两点之间或多点之间的距离表示法,又称之为欧几里得度量,它定义于欧几里得空间中,如点 x = (x1,...,xn) 和 y = (y1,...,yn) 之间的距离为:(1)二维平面上两点a(x1,y1)与b(x2,y2)间的欧氏距离:(2)三维空间两点a(x1,y1,z1)与b(x2,y2,z2)间的欧氏距离:(3)两个n维向量a(x11,x12,…,x1n)与 b(x21...

2018-05-22 15:52:29 1986

原创 聚类算法1-距离表示和评价指标

1.可以实现聚类的算法大概有这么多:K-means系列的:K-means,K-means++,K_means||,canopy,mini Batch K-means密度聚类:层次聚类:谱聚类:2.相似度/距离表示: 2.1 闵可夫斯基距离 两个n维变量a(x11,x12,…,x1n)与 b(x21,x22,…,x2n)间的闵可夫斯基距离定义为: 其中p是一个变参数。当p=1时,就是曼哈顿距离两个n...

2018-05-22 15:49:52 1511

原创 增强for循环不能改变其中元素的值;

LinkedList list2 = new LinkedListlist2.addFirst(1);list2.addFirst(2);for(Integer s:list2){s = 111;System.out.println(s);}//增强for循环不能改变元素的值;for(Integer s:list2){System.out.println(s

2017-12-08 23:35:53 3373

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除