自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(41)
  • 资源 (6)
  • 收藏
  • 关注

原创 期货市场做多与做空操作的区别

期货市场中,做空的意思是:某种货物价格在100元时,花100元抵押,向别人借1个单位的货物。再把货物卖到市场,得100元。期望该货物价格降低,例如降到50元时,花50元买回货物,再归还货物并得到抵押的100元。这样盈利50元。这是保证金100%时的做空。100%保证金的做空的盈利是仓位∗原价原价−现价​做多的盈利是仓位∗原价现价−原价​做多与做空是期货市场的两个方向的基本操作,应当具有完美的对称性(否则不公平了)。以上两个公式看起来有点对称,但事实却不是如此。

2023-12-16 11:10:31 871

原创 磁效应的来源

磁效应的来源,详细推导

2023-03-14 13:44:43 237

原创 学习相对论知识备忘

学习相对论知识备忘

2022-11-15 11:49:18 285

原创 学习defi备忘

defi

2022-06-09 17:36:05 3073

原创 用qt和seetaface制作人脸识别程序的准备工作备忘

使用的操作系统是ubuntu16.041,编译seetaface,得到libseeta_facedet_lib.so,libseeta_fa_lib.so,和libviplnet.so三个连接文件,以及include文件夹里面所有.h头文件备用。2,安装opencvsudo apt-get install libopencv-dev3,安装sox,用来播放音频文件sudo apt-get insta

2017-11-03 11:08:30 1124

原创 常见的网络攻击攻防方法

常见的网络攻击,按照osi七层协议,可以分为: 1,物理层 线路侦听 2,数据链路层 mac_flood 3,网络层 arp_poison,icmp_redirection 4,传输层 tcp_flood(包含ack_flood和syn_flood),udp_flood(ntp,dns) 7,应用层

2017-09-19 14:58:37 28070 4

原创 各种安装的记录

(一) ubuntu16.04安装dlib 官网:http://dlib.net/sudo apt-get install build-essential cmakesudo apt-get install libgtk-3-devsudo apt-get install libboost-all-devsudo pip install dlib

2017-07-11 06:59:20 444

原创 ROS(三)动态参数

======================完成.cfg文件========================== 在包study_dynamic_reconfigure目录下新建文件夹cfg,创建文件three.cfg并编辑#!/usr/bin/env pythonPACKAGE = 'study_dynamic_reconfigure'from dynamic_reconfigure.para

2017-07-06 10:00:13 1490

原创 ROS(二)服务

要生成两个节点,一个节点名称叫server,一个叫client。server提供一个叫做mianji的服务,接受两个参数:长和宽,返回面积。第一篇<主题>内容十分详细具体,包含了完整的步骤细节。但从这篇开始,不再记录完整的步骤细节。=================生成study.service包======================catkin_create_pkg study_servic

2017-07-05 16:36:04 294

原创 ROS(一)主题

ROS(robot operation system)主要解决了两个问题: 1,进程间通信及主机间通信 2,代码管理 这篇笔记记录ROS进程间通信的方法。ROS解决进程间通信的方法主要有:主题,服务及动态参数。 1,主题适合于多个节点需要频繁通信的场合,例如智能小车的超声波测距节点,不断的将距离数据发送给处理单元节点。2,服务适合于不频繁通信的场合。某个节点A向节点B提交服务申请,节点B执行

2017-07-05 11:32:34 762

原创 (DDPG)深度确定策略梯度调参体会

花了一个星期,昨晚终于调出了还算能工作的模型,真的很难。赶紧记下来备忘。直接使用论文中的参数,模型是不能工作的,参数基本上都修改了。下图是论文对于参数的配置说明。 按论文说的来。 1, “a base learning rate of 10−310^{-3 } and 10−410^{-4} for the actor and critic respectively”。论文使用10−310^{-

2017-06-27 09:06:49 17869 14

原创 Continuous control with deep reinforcement learning(DDPG,深度确定策略梯度)练习

深度确定策略梯度,论文在这: http://xueshu.baidu.com/s?wd=paperuri%3A%283752bdb69e8a3f4849ecba38b2b0168f%29&filter=sc_long_sign&tn=SE_xueshusource_2kduw22v&sc_vurl=http%3A%2F%2Fwww.oalib.com%2Fpaper%2F4051743&ie=ut

2017-06-26 20:27:59 2317 2

原创 python知识备忘集合(持续更新)

======================deque========================================= 强化学习的experience replay 模块, 之前考虑到运行的速度,我一直用numpy数组实现,但用起来并不方便,代码也不简洁。用deque必然方便多了,但运行速度怎样?试过才知道。from collections import dequeimport

2017-06-14 09:49:59 389

原创 重要性采样

有下面一个问题:一个工厂里面,工资有三档,低,中,高,分别为100块,200块,300块。其中拿低档工资的工人占60%,拿中档工资的工人占30%,拿高档工资的工人10%人。求该工厂工人工资的期望值。一个解决方法是蒙特卡罗估计。即随机的对该厂工人构造采样,求均值,结果随着采样数量增加会收敛该式0.6N∗100+0.3N∗200+0.1N∗300N\frac{0.6N*100+0.3N*200+0.1N

2017-05-30 16:39:30 4000

原创 DQN调整超参数体会

接上篇 (Deep Reinforcement Learning with Double Q-learning, H. van Hasselt et al., arXiv, 2015)练习DQN有很多超参数,主要有:经验回放集合尺寸,神经网络结构,GAMMA值,学习率,e_greedy值和正负回报值。如此多的超参数,很难调好,必须认真体会总结。=======================经验回放

2017-05-30 15:20:32 21492 6

原创 (Deep Reinforcement Learning with Double Q-learning, H. van Hasselt et al., arXiv, 2015)(dqn)练习

代码使用python 2.x版本 ,tensorflow 使用1.1(cpu)版本论文地址:https://arxiv.org/abs/1509.06461===============第一个文件 replay_memory.py================================import numpy as npMEMORYSIZE = 60000class Replay_mem

2017-05-23 17:01:25 1923

原创 关于的tensorflow的记录

第一个##################import tensorflow as tfimport numpy as np#version is 0.5a = np.ones([100],dtype=np.float32)x = tf.placeholder(dtype=tf.float32,shape = [100])w = tf.Variable(tf.ones([100,100]))o

2017-05-08 15:35:03 482

原创 强化学习知识梳理

该文是简单的知识点梳理,不能作为学习资料,请谅解=================强化学习的分类==================== 强化学习可以分为两类:有模型的,以及无模型的 有模型的强化学习是指我们拥有环境的完美知识,即s(我们知道所有的状态),r(所有状态对应的回报),p(s|a)(我们知道对于任意的状态s,采取任意动作a后,我们所在的新的状态的概率p(s|a)p(s|a))无模型的

2017-04-14 12:34:17 2094

原创 斯坦福CS231n(视觉识别卷积神经网络)课程学习笔记

本文对重点知识做记录,加深记忆以及备忘 中文链接https://zhuanlan.zhihu.com/p/21930884?refer=intelligentunit常用的激活函数:Sigmoid Tanh ReLU(最常使用) Leaky ReLU Maxout数据的预处理一般对数据归一化处理,先进行零中心化,即对于每个特征,将所有数据减去均值。再归一化,即对于每个特征,将所有数据除以特

2017-03-31 15:50:49 2199

原创 (斯坦福机器学习课程笔记)马尔可夫决策

马尔可夫决策内容较多,此学习笔记仅在重要点作简要记录备忘,逻辑性不强。如要重新学习马尔可夫决策,此学习笔记可能不适合,请见谅。马尔可夫决策模型有5个参数;A,S,Psa,γ,R(s,a)A,S,P_{sa},\gamma,R(s,a)其中: -A表示动作集合 -S表示状态集合 -γ\gamma表示折损因子 -PsaP_{sa}表示在状态ss采取a行动后,下一状态是状态集合S里各个状态的

2017-03-30 15:46:25 2169

原创 隐马尔科夫模型练习

import numpyDTYPE='float32'#学习问题def forward(a,b,o): num_states_hidden=a.shape[0] alpha=numpy.ones((num_states_hidden,1),dtype=DTYPE) tem_alpha=numpy.zeros((num_states_hidden,1),dtype

2017-03-23 22:33:11 1523

原创 线性代数笔记整理

线性代数的重要概念备忘: (线性方程组) 1.线性方程组有三种不同的理解:作为矩阵方程,向量方程以及线性方程组2.齐此方程是指Ax=0Ax=0这样的方程,当且仅当方程至少有一个自由变量,即有无穷个解,该齐次方程有非平凡解。3.当且仅当矩阵方程Ax=0Ax=0仅有平凡解,矩阵A各列线性无关。即x1v1+x2v2+…xpvp=0x_1v_1+x_2v_2+ \dots x_pv_p=0仅有

2017-03-09 15:51:25 5304

原创 (斯坦福机器学习课程笔记)混合高斯模型,朴素贝叶斯,混合朴素贝叶斯模型,因子分析

==============================混合高斯模型========================== 混合高斯模型是一个无监督的聚类算法,他认为各个类别的样本都分别服从高斯分布。因此隐变量依然为zjiz_i^j,模型的参数有μ\mu,ϕ\phi,σ\sigma,其中σ\sigma是协方差矩阵。 那么引入EM算法,得到 E步骤: Qi(zji)=P(zji | xi;

2017-03-06 11:27:10 2208

原创 (斯坦福机器学习课程笔记)EM算法

=========================JENSEN不等式======================== 若f(x)f(x)是凸函数,即f″(x)=0f^{''}(x)=0,则f(E[x])≥E[f(x)]f(E[x])\geq E[f(x)],当E[x]=xE[x]=x时,取等号。若f(x)f(x)是凹函数,不等号反向。 该不等式有直观的几何理解,引用网上的图(http://wik

2017-03-06 09:12:24 936

原创 (斯坦福机器学习课程笔记)正则化和机器学习应用的建议

===================================正则化======================= 记得在logistic回归那一节课中,当时我对取似然函数L(θ)=∏P(yi|xI;θ)L(\theta)=\prod P(y_i|x_I;\theta)这一步是不理解的。因为我觉得优化函数应该是这样的:maxθP(θ|x,y)\max\limits_\theta P(\th

2017-02-10 08:32:29 417

原创 (斯坦福机器学习课程笔记)VC维,交叉检验和特征选择

====================VC维================= 上一节课通过hoeffding不等式得出的经验风险最小化及其推论,是基于模型集合是有限的这一假设的。显然的,一般情况下模型集合是无限的(因为模型的参数取值是连续的)。当模型集合数量K是无限的,有以下两个结论。1、因为计算机的浮点数的取值是离散的,如64位的浮点数,要用64位bit来表示,那么64位浮点数的取值可能性只

2017-02-09 21:30:07 846

原创 (斯坦福机器学习笔记)之经验风险最小化

经验风险最小化这节课的内容全是算法,最终推导出了一个可供我们定性分析模型复杂度和所需最少训练样本数的关系的结论。 首先定义ϵ̂ (h)\hat{\epsilon}(h)定义为m个样本的平均误差,又叫训练误差,即ϵ̂ (hθ)=1m∑i=1kI{hθ(xi)≠yi}\hat{\epsilon}(h_{\theta})=\frac{1}{m}\sum\limits_{i=1}^{k}I\{h_{\th

2017-02-07 10:10:55 1534

原创 (斯坦福机器学习笔记)支持向量机

有了前4篇笔记中的对偶问题,拉格朗日函数,核方法的知识,就可以学习支持向量机的算法了。首先要做一个改变写法的声明。yy现在取{−1,1}{\{-1,1\}}。 对于一个线性可分的问题,用y=wTx+by=w^Tx+b作为分隔面,将两类样本分开。 定义函数间隔li=yi(wTxi+b)l^{i}=y^{i}(w^Tx^{i}+b),ii表示学习样本的序号。 定义函数间距l=minl=\mi

2017-02-04 10:26:35 360

原创 (斯坦福机器学习笔记)支持向量机之核方法

对于线性不可分的数据,从低维度映射到高维度空间,有可能变为线性可分,如: 上图红点和蓝点是线性不可分的,我们将四个点执行(x,y)->(x*x,y*y,1.414*x*y)映射,该数据变为线性可分,如下图: 代码如下(python3.x):import matplotlib.pyplot as plt#import numpy as npfrom mpl_toolkits.mplot3d

2017-02-03 09:01:12 468

原创 (斯坦福机器学习课程笔记)支持向量机之拉格朗日函数的对偶问题

用拉格朗日函数求解最优化问题时也可以先找到其对偶问题再求解对于无等式约束的问题: minxf(x)\min\limits_{x} \quad f(x) s.t.  gj(x)≤0s.t.\ \ g_j(x)\leq0 构造拉格朗日函数: L(x,μ)=f(x)+μjgj(x)L(x,\mu)=f(x)+\mu_jg_j(x)========================下面是一些推到过程=

2017-01-29 15:36:02 498

原创 (斯坦福机器学习课程笔记)支持向量机之拉格朗日函数

对于只有等式约束的问题,如: minf(x)min \quad f(x) s.t.hi(x)=0s.t. \quad h_i(x)=0 用拉格朗日函数优化求解的方法是 构造拉格朗日函数 L(x,λi)=f(x)+∑ki=1λihi(x)L(x,\lambda_i)=f(x)+\sum_{i=1}^k \lambda_ih_i(x) 用条件 ∂L∂x=0\frac{\partial L}

2017-01-29 10:51:18 412

原创 (斯坦福机器学习课程笔记)支持向量机之对偶问题

每一个线性规划问题都有与之对应的一个对偶问题,如:minx,yx+3ymin_{x,y} \quad x+3y s.t.x+y≥2s.t.\quad x+y\geq2 x,y≥0x,y\geq0可以这样找到对偶问题:a(x+y)≥2aa(x+y)\geq2a a(x+y)+bx+cy≥2aa,b,c≥0a(x+y)+bx+cy\geq2a\quad a,b,c\geq0 (a+b)x+(a

2017-01-09 09:22:57 356

原创 (斯坦福机器学习课程笔记)用广义线性模型推导softmax

多项式分布:P(y;ϕ1,ϕ2,ϕ3......ϕk)P(y;\phi_1,\phi_2,\phi_3......\phi_k) 定义示性函数1{bool式子}1 \{ bool式子\},当bool式子为真,示性函数为1,反之为0. 上式等于:∏i=1kϕ1{y=i}i=∏i=1k−1ϕ1{y=i}iϕ1{y=k}k\prod_{i=1}^{k}\phi_i^{1\{y=i\}}=\prod_

2017-01-07 17:18:57 335

原创 测试seetaface人脸识别引擎

该测试文件需要放置在FaceIdentification/src/test目录下,为方便编译,代码预处理部分跟文件夹中test_face_verification.cpp相同。编译该文件之前,需要先完成facedetection,facealignment,faceidentification三个模块的编译。代码如下:#include<iostream>using namespace std;#i

2017-01-04 15:13:15 3082 6

翻译 cmake命令学习备忘

cmake是编译c、c++的工具。将主要的命令作以下记录,一来加深印象,二来备忘。================================================================ 1、#是注释符号2、SET(变量A 变量B) 例如 SET(SRC_LIST a.c b.c ab.c) 意思是将a.c b.c ab.c三个文件作为一个list赋值给SRC_LIS

2016-12-24 21:47:43 310

原创 (斯坦福机器学习课程笔记)用广义线性模型推导逻辑回归模型

广义线性模型的公式是 P(y;η)=b(y)exp(ηTT(y)−a(η))P(y;\eta)=b(y)exp(\eta ^TT(y)-a(\eta)) 其中η\eta是自然参数,η=θTx\eta =\theta ^Tx,T(y)T(y)是充分统计量。P(y;η)P(y;\eta)服从指数分布。1、推导逻辑回归公式 逻辑回归公式是从伯努利分布来的 P(y;ϕ)=ϕy(1−ϕ)1−y=

2016-12-23 10:54:49 550

原创 (斯坦福机器学习课程笔记)牛顿法算法学习

代码均使用PYTHON3.x牛顿法算法复杂些,作以下笔记,免忘。下图(来自http://www.myexception.cn/cloud/1987100.html,侵删) 为了找到 f(x)f(x)取极值的点,即,牛顿法的思路是: 1、牛顿法只是求f(x)=0f(x)=0的根!!!!!!!(x可以是向量) 2、初始化一个x0x_0点,在x=x0x=x_0的条件下做曲线的切线f(x

2016-12-20 19:18:05 4255

原创 (斯坦福机器学习课程笔记)局部加权线性回归练习

题目如下import numpy as npimport randomimport matplotlib.pyplot as pltF64='float64'def gen_sin_dot_sample(num_point): x=np.linspace(0,10,num_point) y=np.sin(x)+np.random.random(num_point)*0.05

2016-12-14 15:01:25 600

原创 (斯坦福机器学习课程笔记)多项式回归练习

代码使用python3.x题目如下(自己拍脑壳出的)import numpy as npimport randomimport matplotlib.pyplot as pltF64='float64'def gen_sin_dot_sample(num_point): x=np.linspace(0,10,num_point) y=np.sin(x)+np.random.r

2016-12-13 22:40:16 691

翻译 ubuntu16.04编译seetaface

本文大部分内容来自: http://www.cnblogs.com/makefile/p/6059833.html 侵删。 该编译过程作为记录,免日后忘记。1,下载seetaface源码git clone https://github.com/seetaface/SeetaFaceEngine.git2、安装opencvsudo apt-get install libopencv-dev3、升

2016-12-13 10:52:35 3131 4

seetaface+qt(模型文件为空)代码

seetaface+qt的人脸识别程序代码,模型文件太大了,超过110m,所以用空文件代替。

2017-11-03

吴恩达的机器学习书籍英文

吴恩达的机器学习书籍 Machine Learning

2017-09-04

新版本强化学习,来自sutton

新版本强化学习,来自sutton

2017-09-04

dlbook_cn_public中文版

dlbook_cn_public中文版 深度学习中文版

2017-09-04

Understanding.Network.Hacks.Attack.and.Defense.with.Python

Understanding.Network.Hacks.Attack.and.Defense.with.Python 学习使用python进行网络攻击和防御的书籍。

2017-09-04

802.1D-2004

802.1D-2004 IEEE Standard for Local and metropolitan area networks

2017-08-07

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除