自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(72)
  • 收藏
  • 关注

原创 Spring @RequestMapping

RequestMapping注解用于映射url到控制器类或一个特定的处理程序方法。可用于类或方法上。用于类上,表示类中的所有响应请求的方法都是以该地址作为父路径。首先是作用的地方RequestMapping作用于方法上@Controllerpublic class ControllerDemo {@RequestMapping("/h1")public String hello1(Model model){model.addAttribute(“msg”,“HelloSpringMVC”);

2021-05-07 11:09:37 1174

原创 Spring Bean

Bean命名Bean每个 bean 具有一个或多个标识符。这些标识符在承载 Bean 的容器内必须唯一。id和name指定bean的标识符,必须唯一命名规则:驼峰式一般采用简单的类名称并将其初始字符转换为小写别名:name是在实际定义bean的地方指定别名,每个子系统都有自己的对象定义集。在基于 XML 的配置元数据中,可以使用元素来完成此操作。@Bean()也可以定义别名实例化BeanBean 定义本质上是创建一个或多个对象的方法。容器查看命名 bean 的配方,并使用该 bean 定义

2021-05-07 11:05:42 429 3

原创 注解实现spring mvc

1.在web.xml中注册DispatcherServlet2.编写DispatcherServlet的配置文件3.编写Controller4.在DispatcherServlet的配置文件中注册Controller5.创建视图层接收Model创建Module添加web支持在web.xml中注册DispatcherServlet<?xml version="1.0" encoding="UTF-8"?> SpringMVC org.sp

2021-05-07 10:47:07 266

原创 springmvc的重定向与转发

视图跳转请求重定向和请求转发都是web开发中资源跳转的方式。请求转发是服务器内部的跳转地址栏不发生变化只有一个请求相应可以通过request域对跳转目标的请求请求重定向是浏览器自动发起对跳转目标的请求地址栏会发生变化两次请求相应无法通过request域传递对象注意在WEB-INF下的目录是外界不可访问的,所以只可以转发而不可以重定向到达1.传统的Servlet方式 不需要视图解析器通过HttpServletResponse实现重定向通过HttpServletRequest实现转发

2021-05-07 10:33:56 235

原创 Neighbor Embedding

PCA和Word Embedding介绍了线性降维的思想,而Neighbor Embedding要介绍的是非线性的降维。Manifold Learning样本点的分布可能是在高维空间里的一个流行(Manifold),也就是说,样本点其实是分布在低维空间里面,只是被扭曲地塞到了一个高维空间里地球的表面就是一个流行(Manifold),它是一个二维的平面,但是被塞到了一个三维空间里在Manifold中,只有距离很近的点欧氏距离(Euclidean Distance)才会成立,而在下图的S型曲面中,欧氏距

2021-03-23 23:47:54 853 1

原创 Semi-supervised Learning(part Ⅱ)

文章目录Smoothness Assumptiondigits detectionfile classificationclusterGraph-based ApproachSmoothness Assumptionsmoothness用于定义数据的相似度:如果x1x^1x1和x2x^2x2在一个high density region上很接近的话,那么y^1\hat y^1y^​1和y^2\hat y^2y^​2就是相同的,也就是这两个点可以在样本点高密度集中分布的区域块中有一条可连接的路径(conn

2021-03-20 22:10:45 364

原创 Semi-supervised Learning(part Ⅰ)

文章目录IntroductionSemi-supervised Learning for Generative ModelSupervised Generative ModelSemi-supervised Generative ModelLow-density Separation AssumptionEntropy-based RegularizationSemi-supervised SVMIntroductionSupervised Learning与Semi-supervised Learn

2021-03-20 22:10:08 306

原创 Matrix Factorization

文章目录肥宅买公仔matrix expressionsolutionpredictionother fectorsTopic Analysis假设存在两种对象,它们之间存在某种联系,并且它们各自存在某种属性(称为潜在因素latent factor),我们希望通过现存的联系来分析出它们各自的属性,从而对它们的后继行为进行预测,这也是推荐系统常用的方法之一。肥宅买公仔以肥宅买公仔为例,假设每个公仔有傲娇的属性或天然呆的属性,而每个肥宅有偏爱傲娇的属性或偏爱天然呆的属性,那偏爱傲娇的肥宅会更多地购买具有傲

2021-03-18 22:40:16 463

原创 PCA(part Ⅱ)

Reconstruction Component可以把手写数字识别中的数字看做是由类似于笔画的basic component组成的,这个basic component集合包含了能够构成所有数字的基本笔画。从另一个角度看,basic component集合代表着数字所具有的所有基本特征,每个数字由这些基本特征组成,具有或不具有某个特征。写成表达式就是:x≈c1u1+c2u2+...+ckuk+xˉx≈c_1u^1+c_2u^2+...+c_ku^k+\bar xx≈c1​u1+c2​u2+...+ck​

2021-03-18 20:09:13 238

原创 PCA(part Ⅰ)

PCA for 1-DPCA的目的是要将原有数据投影到新的空间,通过观察全局数据特点对数据赋予新的属性后进行转换,做到降维的同时尽可能增加数据的区分度。数据映射假设现在有样本数据object xxx和投影方向向量w1w^1w1,z=w1⋅xz=w^1\cdot xz=w1⋅x则代表着将object投影到该方向上,其中w1w^1w1作为方向向量其长度为1,即∣∣w1∣∣2=1||w^1||_2=1∣∣w1∣∣2​=1。那我们到底要找什么样的w1w^1w1呢?假设我们现在已有的宝可梦样本点分布如下,

2021-03-18 20:08:53 317

原创 Unsupervised Learning Introduction

无监督学习中的数据(x,y^)(x,\hat y)(x,y^​)通常只有特征xxx和标签y^\hat yy^​中的一个,无监督学习(Unsupervised Learning)可以分为两种:化繁为简(Clustering & Dimension Reduction)无中生有(Generation)Clustering对于只有特征xxx的数据集来说,Clustering就是对数据集进行分类,将具有相同特征的数据集聚合成为一个Cluster。对于每一个Cluster实际代表空间中的一个数据

2021-03-18 20:08:22 243

原创 RNN(part Ⅱ)

Training在Slot Filling的例子,我们需要把model的输出yiy^iyi与映射到slot的reference vector求交叉熵,比如“Taipei”对应到的是“dest”这个slot,则reference vector在“dest”位置上值为1,其余维度值为0RNN的output和reference vector的cross entropy之和就是损失函数,也是要minimize的对象需要注意的是,word要依次输入model,比如“arrive”必须要在“Taipei”前输入,

2021-03-12 22:57:46 309

原创 RNN(part Ⅰ)

Slot Fillingslot filling技术用在智能客服、智能订票系统中,分析用户说出的语句,判断某个词属于时间或地址的概率,将语句中时间、地址等有效的关键词填到对应的槽上,并过滤掉无效的词语。若使用DNN来分析语句,则将会忽视语句的特定顺序以及语句中词汇的前后联系,这时希望神经网络有记忆,在分析完前一个词汇后会对后一个词汇的分析产生影响,例如有两个句子“arrive Taipei”和“leave Taipei”,DNN在处理完“arrive”或“leave”后同时处理“Taipei”,若没有前

2021-03-12 22:57:06 220

原创 CNN Application

filter pattern这里希望了解filter能够识别pattern究竟是什么,首先定义filter的激活程度。Degree of the activation of filter:A=∑i=1n∑j=1naijA=\sum\limits^{n}_{i=1}\sum\limits^{n}_{j=1} a_{ij}A=i=1∑n​j=1∑n​aij​aija_{ij}aij​:filter对image卷积后的矩阵元素也就是把filter对image进行卷积后输出的矩阵元素全部加和,当

2021-02-28 21:33:38 340

原创 CNN

可以用一般的DNN来做影像处理,比如,做图像的分类,训练一个neural network,它的input是一张图片,将这张图片的pixel flatten成一个vector,而output则是由图像类别组成的vector。最终在训练好的network structure里面的每一个neuron都代表了一个最基本的classifier,每个classifier都用于识别某种基本的pattern,当某个图像中存在某个classifier可以识别的pattern,那对应neuron将被激活,对后续更复杂neu

2021-02-28 21:33:16 259

原创 Regularization(L1、L2)

文章目录L2 regularizationL2 regularization in deep learningL1 regularizationL1 regularization in deep learningL1 vs L2deep learning可以作为很复杂的model,很复杂的model可以很容易在训练数据集中学到更多的东西,对训练数据拟合的非常好,这就很容易造成overfitting的现象,那regularization就可以一定程度避免这一现象发生,regularization就是在lo

2021-02-27 17:39:32 567 1

原创 Optimizier(AdaGrad、RMSProp、Momentum、Adam)

AdaGrad公式:θt+1=θt−ησtgtσt=∑i=0t(gi)2\theta^{t+1}=\theta^t-\frac{\eta}{\sigma^t}g^t\\\sigma^t=\sqrt{\sum\limits_{i=0}^t(g^i)^2}θt+1=θt−σtη​gtσt=i=0∑t​(gi)2​learning rate设置为一个固定的初始值 η\etaη 除以一个变化的值 σ\sigmaσσ\sigmaσ是对过程中所有梯度的平方和求根Adagrad的特性:(Review

2021-02-27 17:38:59 333 1

原创 Dropout

Training of DropoutDropout的做法是每次对一个batch训练集做训练前对network中的每一个neuron(包括input layer的neuron),做sampling(抽样) ,每个neuron都有p%的几率会被丢掉,如果某个neuron被丢掉的话,跟它相连的权值www也都要被丢掉,剩下的neuron组成一个thinner network,batch训练集中的data全部以此dropout后的这个thinner network为结构做训练,并计算损失更新参数。

2021-02-27 17:38:38 358

原创 Vanishing gradient and activiation funcation(ReLU、Maxout)

文章目录Vanishing gradientReLUthinner linear networkHow to trainReLU-variantMaxoutthinner linear networkLearnable FeatureMaxout→\rightarrow→ReLUMaxout→\rightarrow→more than ReLUHow to trainSummary在手写数字识别的训练准确度的实验,使用sigmoid function。可以发现当层数越多,训练结果越差,训练集上准确度就下

2021-02-27 17:38:20 337

原创 Backpropagation

Backpropagation里面并没有什么高深的数学,你唯一需要记得的就只有Chain Rule(链式法则)对整个neural network,我们定义了一个loss function:L(θ)=∑n=1Nln(θ)L(\theta)=\sum\limits_{n=1}^N l^n(\theta)L(θ)=n=1∑N​ln(θ),它等于所有training data的loss之和我们把training data里任意一个样本点xnx^nxn代到neural network里面,它会output一个y

2021-02-27 17:37:56 192

原创 Fully Connect Feedforward Network

Neural Network将多个Logistic Regression以不同的结构前后连接起来,叫做Neural Network,其中每一个Logistic Regression是一个neuron。Fully Connect Feedforward Network(全连接前馈网络)input layer,输入层(严格来说input layer其实不是一个layer,并不由neural所组成的)output layer,输出层hidden layer,隐藏层前向计算Neural输出公

2021-02-27 17:37:16 2127

原创 Gradient Descent

在回归问题中,需要解决下面的最优化问题:θ∗=arg min⁡θL(θ)\theta^∗= \underset{ \theta }{\operatorname{arg\ min}} L(\theta) θ∗=θarg min​L(θ)LLL :lossfunction(损失函数)θ\thetaθ :parameters(参数)L指损失函数,评判预测模型的性能,比如均方误差MSE,平方误差SEθ\thetaθ 指代损失函数中的参数,比如线性回归中的 www 和 bbb 。

2021-02-27 17:36:01 196

原创 Classification: Probabilistic Generative Model(概率生成模型)

概率模型实现原理盒子抽球后验概率问题假设两个盒子,各装了5个球,抽到盒子1中球的概率是 2/32/32/3,是盒子2中球的概率是1/31/31/3。在盒子1中随机抽一个球,是蓝色的概率为 4/54/54/5,绿的的概率为 1/51/51/5在盒子2中随机抽一个球,是蓝色的概率为 2/52/52/5,绿的的概率为 3/53/53/5问:随机从两个盒子中抽一个球,抽到蓝色球属于盒子1的概率是多少?P(B1∣Blue)=P(Blue∣B1)P(B1)P(Blue∣B1)P(B1)+P(Blue

2021-02-27 17:35:29 477

原创 Logistic Regression

处理二元分类问题的generative model中,以高斯分布为model拟合样本数据,利用贝叶斯公式计算概率:P(C1∣x)=P(C1)P(x∣C1)P(C1)P(x∣C1)+P(C2)P(x∣C2)P(C_1|x)=\frac{P(C_1)P(x|C_1)}{P(C_1)P(x|C_1)+P(C_2)P(x|C_2)}P(C1​∣x)=P(C1​)P(x∣C1​)+P(C2​)P(x∣C2​)P(C1​)P(x∣C1​)​极大似然估计法计算出C1C_1C1​和C2C_2C2​高斯分布期望μ1\m

2021-02-27 17:34:58 316 1

原创 机器学习中的bias和variance

偏差(Bias)和方差(Variance)——机器学习中的模型选择

2021-02-27 17:34:31 686

原创 pandas常用方法

pandas常用方法

2021-02-18 22:41:58 204

原创 matplotlib常用方法

matplotlib常用方法

2021-02-18 22:41:08 494

原创 numpy常用方法

1.与list比较 2.初始化 3.属性 4.计算方法 5.索引和切片 6.合并与分割 7.迭代与拷贝

2021-01-26 10:27:09 191

原创 常用结构性设计模式

代理模式代理者和被代理者可执行相同的业务,实际上是代理者帮助被代理者执行业务,重点是代理者可以执行一些附加操作,这使得被代理者专注于自己的操作,不需要关注公共操作,而代理者主要为被代理者执行额外的公共操作。但缺点是代理角色与被代理角色一一对应,当被代理角色增多时,代码增多。这里有一个为用户服务的增删改查,希望添加一个日志,可用户记录操作。public class client { public static void main(String[] args) { UrserSe

2020-10-18 00:07:58 188

原创 Class对象

Class对象每个类都有一个Class对象,被保存在同名.class文件中,用来创建对象。有三种方法可取的对Class对象的引用forName(): 是Class类的static方法,为产生目标类Class对象的引用.class: int.classgetClass(): 属于根类Object,取得当前对象的类型初始化延迟:加载,CLASSPATH查找字节码,并从字节码中创建Class对象链接,验证类的字节码,为静态域分配存储空间。初始化,初始化静态块。初始化通常被延迟到静态方法或

2020-10-18 00:06:07 467

原创 反射

Class与java.lang.refect类库一起对反射提供了支持,该类库包含Field、Method、Constructor类(都实现了Member接口)。这些类型的对象由JVM在运行时创建,表示未知类中的成员。可以用Constructor创建新对象,get()和set()读取修改字段,invoke方法调用方法。构造器信息public Constructor<?>[] getDeclaredConstructors()getDeclaredConstructors()是返回一个

2020-10-18 00:05:49 113

原创 Collection与Iterator的关系

在C++中没有容器的公共基类,所有容器共性通过迭代器达成。Java中新增了Collection,用来描述所有序列容器共性接口的根接口。而其实Collection与迭代器绑定,实现Collection就得提供iterator()方法(也就是继承Iterable接口)。示例程序展现了三种表示以及操作容器的方式,可以看出Collection与Iterator是序列容器的共性。class SimpleListIterator{ //方法一 public static void display(

2020-10-18 00:05:02 1286

原创 Comparator与Comparable实例

数组中的排序排序需要首先进行元素比较,有两种方式可以实现而且必须实现。一种是实现java.lang.Comparable接口,另一种是创建实现了Comparator接口的类。两者的比较,个人认为第二种更好些,这是适配器模式的体现,而且不需要修改已存在的类,可以很好的扩展。对于内置类型或基本类型,Java已经覆写了compareTo方法,而且进行了优化,针对基本类型设计了Quicksort,针对对象的稳定归并排序。⊙ω⊙⊙ω⊙⊙ω⊙⊙ω⊙第一种注意 Arrays.sort(a1, Collectio

2020-10-18 00:03:28 122

原创 迭代器详解与适配迭代器

迭代器是一个对象,用于遍历并选择序列中的对象,直接使用迭代器,迭代器不需要考虑容器内部的类型信息,也不需要关心不同容器的底层原理和性质。迭代器被称为轻量级对象,功能简单有限:1、只能使用iterator()返回容器的迭代器,2、next(),3、hasNext(),4、remove()删除迭代器新近的返回元素。程序示例展示了利用Iterator不需要确定容器中的类型信息,也不需要关心Collection的类型。class SimpleIterator{ public static void d

2020-10-18 00:02:42 162

原创 enum实例——状态机

状态机主要实现不同状态的转换。灯颜色的改变enum LightColor{ GREEN,YELLOW,RED}class Light { LightColor color; public Light(LightColor color) { this.color = color; } public void change(){ switch (color){ case RED:

2020-10-18 00:02:16 398 4

原创 混型

混型即混合多个类,以产生表示混合了所有类型的类。C++多重继承的目的是为了使用混型,但多重继承使得代码量越来越多,更灵活的方式是使用参数化类型组合特性——继承泛型参数,这样在添加泛型的同时达到继承泛型的特性的目的。C++的混型下面的实例可以为Basic添加时间戳TimeStamp和Id属性。#include<iostream>#include<time.h>#include<string>using namespace std;template<cl

2020-10-18 00:01:36 169

原创 泛型特性——擦除详解

C++的模板非常简单,只是将具体类型替换到模板参数。在运行时丢失类型信息通过程序示例的两个测试可以看到,泛型参数在运行时不会有任何体现,LinkedList()和LinkedList()的容器是原生容器,而泛型参数是原生参数,这实际就是他们在运行时的类型。class EraseTest{ public static void test1(){ Class c1=new LinkedList<String>().getClass(); Class c2

2020-10-18 00:01:08 3020

原创 spring-boot依赖分析

文章目录依赖spring-boot-starter-parentspring-boot-dependenciesSpring Boot应用主程序类@SpringbootApplication注解分解AutoConfigurationImportSelectorspring.factories依赖 <parent> <groupId>org.springframework.boot</groupId> <artifactId&

2020-10-17 23:59:58 1466

原创 常用创建型设计模式

建造者模式当问题注重对象的创建过程,并且要求创建同类对象的不同产品时用建造者模式。例如房子的构建,地基->钢筋工程->堆砌砖瓦->粉刷,这注重创建过程,而对于平房和楼房来说,过程是一样的但是相应步骤的实现是不一样的。建造者模式的基本构成Product定义了产品的部件Abstract Builder规定Worker行为real Worker定义了各产品部件的构建方法,并且创建出实际的产品,并且可有多个Worker,可以有多个不同产品实现(平房与楼房)Director则主要控制产品

2020-10-17 23:50:53 114

原创 SpringIOC配置

IOC理念假设在原生web中假设一个登陆功能需要的模块是UserDao接口:User getUser(String account);UserDaoImp实现——UserDaoOracleImp和UserDaoMySqlImpUserService接口:User login(String account,String password);UserServiceImp实现pubilc UserServiceImp implements UserServiceprivate UserDao use

2020-10-17 23:36:06 218

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除