- 博客(9)
- 资源 (4)
- 收藏
- 关注
原创 Docker学习记录
简介Docker 可以让开发者打包他们的应用以及依赖包到一个轻量级、可移植的容器中,然后发布到任何流行的 Linux 机器上,也可以实现虚拟化。镜像的使用使用的镜像如果在本地中不存在,docker 就会自动从 docker 镜像仓库中下载,默认是从 Docker Hub 公共镜像源下载。# REPOSITORY:表示镜像的仓库源,TAG:镜像的标签,IMAGE ID:镜像ID,CREATED:镜像创建时间, SIZE:镜像大小docker images # 获取新镜像docker pull
2020-07-05 22:25:59 173
转载 Kafka学习使用
简介Kafka是一种高吞吐量的分布式发布订阅消息系统Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据,具有高性能、持久化、多副本备份、横向扩展能力,Kafka是分布式的流数据平台Producer:Producer即生产者,消息的产生者,是消息的入口。Broker:Broker是kafka实例,每个服务器上有一个或多个kafka的实例,我们姑且认为每个broker对应一台服务器。每个kafka集群内的broker都有一个不重复的编号,如图中的broker
2020-07-05 22:17:08 186
原创 从优化角度看L1正则化的稀疏性
背景大数据背景的几个特点:量大large scale,实时性动态产生数据,结构化/半结构化数据,可信赖程度低(Noise,考虑模型如何更robust),高维度且稀疏的数据集。这里主要说高维稀疏数据带来的一些问题:x=(x1,x2,⋯ ,xp)x=\left(x_{1}, x_{2}, \cdots, x_{p}\right)x=(x1,x2,⋯,xp), 特征是p维,数据样例有n个,...
2020-04-19 11:10:57 635
原创 hadoop单机与伪分布配置/Python执行任务
hadoop的单机与伪分布配置。Python跑wordcount程序的问题记录。详情:https://saruagithub.github.io/2020/04/06/20200406hadoop%E9%85%8D%E7%BD%AE/
2020-04-14 16:31:13 137
原创 【Donut论文】Unsupervised anomaly detection via variational auto-encoder for seasonal kpis...
简述本文提出的 Donut,基于 VAE(代表性的深层生成模型)的无监督异常检测算法,伴有理论解释,可以无标签或偶尔提供的标签下学习。本文贡献1,Donut 里的三项技术:改进的 ELBO,缺失数据注入进行训练以及为了检测的 MCMC (imputation) 借补法。使它大大超越了最新的监督类和基于 VAE 的异常检测算法。 对于来自顶级全球互联网公司的研究 KPI,无监督 Donut 的...
2020-04-13 17:17:46 1978
原创 ubuntu16配置GPU深度学习环境、CUDA、cuNDD等
1、准备请先看好各种软件的版本对应要求,这仨一定要对应好。Tensorflow不同版本要求与CUDA及CUDNN版本对应关系知道要下哪些版本了,就预先做好各种软件下载工作。首先下载好英伟达的驱动 NVIDIA驱动下载注意!!!下载好跟自己显卡对应的驱动。显卡的产品类型、系列那些如果之前已经装好了驱动,则可以通过命令 nvidia-smi查询到。没有装刚买来就自己查。即使你的机...
2019-05-19 17:15:47 704
原创 装window、ubuntu双系统
装window10、ubuntu16.04双系统周末趁空装了个双系统,记录记录过程吧。装windows10首先下载好win10的系统镜像ISO文件,由于我不咋用win10就装了家庭版链接: http://pan.baidu.com/s/1sj3JNRJ 密码: z49r准备好空的U盘,准备做系统启动盘。下载安装好UltraISO,插入U盘。点击打开,选择ISO文件点击启动 ...
2019-04-24 09:09:54 337
原创 PCL在Mac上环境问题
PCL库1、安装过程参考官网,环境是Mac10.14.4,mojavepcl install on Macbrew install pcl ,一直装就好了2、使用xcode创建pcl工程翻墙搜的pcl project in xcode此处注意编译器的选择,Switch Compiler for C/C++/Objective-C from Apple LLVM compiler 4.2...
2019-03-27 17:16:55 603 1
原创 强化学习入门
概念 强化学习简单来说像训练大猩猩,我们告诉它哪个行为有奖励,他在多次做出行为的时候就会知道反馈,哪个好,哪个不好,于是久而久之就会选择好的行为。 标准的定义是:如果Agent的某个行为策略导致环境正的奖赏(强化信号),那么Agent以后产生这个行为策略的趋势便会加强。Agent的目标是在每个离散状态发现最优策略以使期望的折扣奖赏和最大。 重要的是 agent,Act
2017-08-13 20:54:21 198
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人