- 博客(9)
- 资源 (4)
- 收藏
- 关注
原创 自回归模型的LMS学习曲线-神经网络与机器学习笔记3
对于自回归模型x(n)=ax(n−1)+ϵ(n)x(n)=ax(n-1)+\epsilon(n) a=0.99a=0.99, σ2ϵ=0.02\sigma_\epsilon^2=0.02,σ2x=0.995\sigma_x^2=0.995 利用这个模型参数一组标准数据,然后使用LMS方法求解这个模型中的参数a 为了得到LMS学习曲线,我们将求解过程重复100次,并且每次产生不同的标准数据用于求
2016-12-08 21:41:30 3029
原创 正则化最小二乘法——神经网络与机器学习笔记2
参考Andrew Ng 公开课的推导一些公式trA=∑ni=1AiitrA=\sum_{i=1}^nA_{ii} trAB=trBAtrAB=trBA trABC=trCBA=trBCAtrABC=trCBA=trBCA trA=trATtrA=trA^T if a∈Ra\in R, tra=atra=a ∇AtrAB=BT\nabla_AtrAB=B^T ∇AtrABATC=CAB+C
2016-11-24 10:31:50 1988
原创 一些向量求导公式
一些向量求导公式参考《关于向量求导的一些公式》,刘昌红,刘瑞元 1.xT=[x1,...,xn],aT=[a1,...,an]\mathbf x^T=[x_1,...,x_n], \mathbf a^T = [a_1,...,a_n] ∂(aTx)m∂x=m(aTx)m−1a\frac{\partial(\mathbf a^T\mathbf x)^m}{\partial \mathbf x} =
2016-11-21 16:16:00 1351
原创 Rosenblatt感知机-神经网络与机器学习笔记1
一、Rosenblatt感知机小结感知机模型 输入向量:x(n)=[+1,x1(n),x2(n),...,xm(n)]Tx(n)=[+1,x_1(n),x_2(n),...,x_m(n)]^T 权重向量:w(n)=[b,w1(n),w2(n),...wm(n)]Tw(n)=[b,w_1(n),w2(n),...w_m(n)]^T 当输入向量线性可分时,我们需要寻找到一个合适的w,正确地分开
2016-11-17 15:35:18 660
原创 C++类成员中包含其他类时的初始化问题
当A中包含B类时,B在什么时候初始化呢?例如:#includeusing namespace std;class A{public: A() { cout << "A is constructed!" << endl; }};class B{private: A a;public: B() { a = A(); cout << "B is cons
2016-09-30 19:10:05 7414 2
转载 SVD分解算法及其应用
原文 http://elevencitys.com/?p=3923矩阵的奇异值分解在矩阵理论的重要性不言而喻,它在最优化问题、特征值问题、最小乘方问题、广义逆矩阵问,统计学,图像压缩等方面都有十分重要的应用。定义: 设A为m*n阶矩阵, A H A 的n个特征值的非负平方根叫作A的奇异值。记为 σ i (A)。 > 如果把A H A的特征值记为λ i (A),则σ i (A)= λ
2016-07-11 13:46:12 980
learning with kernels
2017-11-30
Numerical.Recipes 3rd edition.pdf
2016-10-25
Neural Networks A Comprehensive Foundation
2016-06-22
programming windows with MFC
2014-06-18
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人