自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(0)
  • 资源 (17)
  • 收藏
  • 关注

空空如也

Objective-C高级编程 iOS与OS X多线程和内存管理

帮助学习关于OC中内存管理的知识点

2022-01-19

Swift5.2_SwiftGG翻译组开源出品.pdf.zip

最新Swift文档, 更新到Swift5.2 . 基于SwiftGG翻译组开源出品, 纯手工制作 完美版本... 只有PDF

2021-03-05

iOS13.5真机包.zip

iOS真机包2020年06月最新支持 iOS 13.5

2020-06-20

神经网络与深度学习(吴岸城)pdf(完整,高清 带书签 源码)

【内容简介】 《神经网络与深度学习》是一本介绍神经网络和深度学习算法基本原理及相关实例的书籍,它不是教科书,作者已尽量把公式减少到极少,以适应绝大部分人的阅读基础和知识储备。《神经网络与深度学习》涵盖了神经网络的研究历史、基础原理、深度学习中的自编码器、深度信念网络、卷积神经网络等,这些算法都已在很多行业发挥了价值。 《神经网络与深度学习》适合有志于从事深度学习行业的,或想了解深度学习到底是什么的,或是有一定机器学习基础的朋友阅读。 【目录】 第0章 写在前面:神经网络的历史 第1章 神经网络是个什么东西 1.1 买橙子和机器学习 1.1.1 规则列表 1.1.2 机器学习 1.2 怎么定义神经网络 1.3 先来看看大脑如何学习 1.3.1 信息输入 1.3.2 模式加工 1.3.3 动作输出 1.4 生物意义上的神经元 1.4.1 神经元是如何工作的 1.4.2 组成神经网络 1.5 大脑如何解决现实生活中的分类问题 第2章 构造神经网络 2.1 构造一个神经元 2.2 感知机 2.3 感知机的学习 2.4 用代码实现一个感知机 2.4.1 Neuroph:一个基于Java的神经网络框架 2.4.2 代码实现感知机 2.4.3 感知机学习一个简单逻辑运算 2.4.4 XOR问题 2.5 构造一个神经网络 2.5.1 线性不可分 2.5.2 解决XOR问题(解决线性不可分) 2.5.3 XOR问题的代码实现 2.6 解决一些实际问题 2.6.1 识别动物 2.6.2 我是预测大师 第3章 深度学习是个什么东西 3.1 机器学习 3.2 特征 3.2.1 特征粒度 3.2.2 提取浅层特征 3.2.3 结构性特征 3.3 浅层学习和深度学习 3.4 深度学习和神经网络 3.5 如何训练神经网络 3.5.1 BP算法:神经网络训练 3.5.2 BP算法的问题 3.6 总结深度学习及训练过程 第4章 深度学习的常用方法 4.1 模拟大脑的学习和重构 4.1.1 灰度图像 4.1.2 流行感冒 4.1.3 看看如何编解码 4.1.4 如何训练 4.1.5 有监督微调 4.2 快速感知:稀疏编码(Sparse Coding) 4.3 栈式自编码器 4.4 解决概率分布问题:限制波尔兹曼机 4.4.1 生成模型和概率模型 4.4.2 能量模型 4.4.3 RBM的基本概念 4.4.4 再看流行感冒的例子 4.5 DBN 4.6 卷积神经网络 4.6.1 卷积神经网络的结构 4.6.2 关于参数减少与权值共享 4.6.3 举个典型的例子:图片内容识别 4.7 不会忘记你:循环神经网络 4.7.1 什么是RNN 4.7.2 LSTM网络 4.7.3 LSTM变体 4.7.4 结论 4.8 你是我的眼:利用稀疏编码器找图像的基本单位 4.9 你是我的眼(续) 4.10 使用深度信念网搞定花分类 第5章 深度学习的胜利:AlphaGo 5.1 AI如何玩棋类游戏 5.2 围棋的复杂性 5.3 AlphaGo的主要原理 5.3.1 策略网络 5.3.2 MCTS拯救了围棋算法 5.3.3 强化学习:“周伯通,左右互搏” 5.3.4 估值网络 5.3.5 将所有组合到一起:树搜索 5.3.6 AlphaGo有多好 5.3.7 总结 5.4 重要的技术进步 5.5 一些可以改进的地方 5.6 未来 第6章 两个重要的概念 6.1 迁移学习 6.2 概率图模型 6.2.1 贝叶斯的网络结构 6.2.2 概率图分类 6.2.3 如何应用PGM 第7章 杂项 7.1 如何为不同类型的问题选择模型 7.2 我们如何学习“深度学习” 7.3 如何理解机器学习和深度学习的差异 7.4 大规模学习(Large Scale Learning)和并行计算 7.5 如果喜欢应用领域,可以考虑以下几种应用 7.6 类脑:人工智能的目标 参考文献 术语 【编辑推荐】 随着AlphaGo与李世石大战的落幕,人工智能成为话题焦点。AlphaGo背后的工作原理“深度学习”也跳入大众的视野。什么是深度学习,什么是神经网络,为何一段程序在精密的围棋大赛中可以大获全胜?人工智终将会取代人类智慧吗? 本书结合日常生活中的寻常小事,生动形象地阐述了神经网络与深度学习的基本概念、原理和实践,案例丰富,深入浅出。对于正在进入人工智能时代的我们,这些内容无疑可以帮助我们更好地理解人工智能的原理,丰富我们对人类自身的认识,并启发我们对人机智能之争更深一层的思考与探索。

2018-07-19

Python机器学习基础教程(高清+书签+代码)

【内容简介】 本书是机器学习入门书,以Python语言介绍。主要内容包括:机器学习的基本概念及其应用;实践中常用的机器学习算法以及这些算法的优缺点;在机器学习中待处理数据的呈现方式的重要性,以及应重点关注数据的哪些方面;模型评估和调参的方法,重点讲解交叉验证和网格搜索;管道的概念;如何将前面各章的方法应用到文本数据上,还介绍了一些文本特有的处理方法。 本书适合机器学习从业者或有志成为机器学习从业者的人阅读。 【目录】 前言 ix 第 1 章 引言 1 1.1 为何选择机器学习 1 1.1.1 机器学习能够解决的问题 2 1.1.2 熟悉任务和数据 4 1.2 为何选择Python 4 1.3 scikit-learn 4 1.4 必要的库和工具 5 1.4.1 Jupyter Notebook 6 1.4.2 NumPy 6 1.4.3 SciPy 6 1.4.4 matplotlib 7 1.4.5 pandas 8 1.4.6 mglearn 9 1.5 Python 2 与Python 3 的对比 9 1.6 本书用到的版本 10 1.7 第 一个应用:鸢尾花分类 11 1.7.1 初识数据 12 1.7.2 衡量模型是否成功:训练数据与测试数据 14 1.7.3 要事第 一:观察数据 15 1.7.4 构建第 一个模型:k 近邻算法 16 1.7.5 做出预测 17 1.7.6 评估模型 18 1.8 小结与展望 19 第 2 章 监督学习 21 2.1 分类与回归 21 2.2 泛化、过拟合与欠拟合 22 2.3 监督学习算法 24 2.3.1 一些样本数据集 25 2.3.2 k 近邻 28 2.3.3 线性模型 35 2.3.4 朴素贝叶斯分类器 53 2.3.5 决策树 54 2.3.6 决策树集成 64 2.3.7 核支持向量机 71 2.3.8 神经网络(深度学习) 80 2.4 分类器的不确定度估计 91 2.4.1 决策函数 91 2.4.2 预测概率 94 2.4.3 多分类问题的不确定度 96 2.5 小结与展望 98 第3 章 无监督学习与预处理 100 3.1 无监督学习的类型 100 3.2 无监督学习的挑战 101 3.3 预处理与缩放 101 3.3.1 不同类型的预处理 102 3.3.2 应用数据变换 102 3.3.3 对训练数据和测试数据进行相同的缩放 104 3.3.4 预处理对监督学习的作用 106 3.4 降维、特征提取与流形学习 107 3.4.1 主成分分析 107 3.4.2 非负矩阵分解 120 3.4.3 用t-SNE 进行流形学习 126 3.5 聚类 130 3.5.1 k 均值聚类 130 3.5.2 凝聚聚类 140 3.5.3 DBSCAN 143 3.5.4 聚类算法的对比与评估 147 3.5.5 聚类方法小结 159 3.6 小结与展望 159 第4 章 数据表示与特征工程 161 4.1 分类变量 161 4.1.1 One-Hot 编码(虚拟变量) 162 4.1.2 数字可以编码分类变量 166 4.2 分箱、离散化、线性模型与树 168 4.3 交互特征与多项式特征 171 4.4 单变量非线性变换 178 4.5 自动化特征选择 181 4.5.1 单变量统计 181 4.5.2 基于模型的特征选择 183 4.5.3 迭代特征选择 184 4.6 利用专家知识 185 4.7 小结与展望 192 第5 章 模型评估与改进 193 5.1 交叉验证 194 5.1.1 scikit-learn 中的交叉验证 194 5.1.2 交叉验证的优点 195 5.1.3 分层k 折交叉验证和其他策略 196 5.2 网格搜索 200 5.2.1 简单网格搜索 201 5.2.2 参数过拟合的风险与验证集 202 5.2.3 带交叉验证的网格搜索 203 5.3 评估指标与评分 213 5.3.1 牢记目标 213 5.3.2 二分类指标 214 5.3.3 多分类指标 230 5.3.4 回归指标 232 5.3.5 在模型选择中使用评估指标 232 5.4 小结与展望 234 第6 章 算法链与管道 236 6.1 用预处理进行参数选择 237 6.2 构建管道 238 6.3 在网格搜索中使用管道 239 6.4 通用的管道接口 242 6.4.1 用make_pipeline 方便地创建管道 243 6.4.2 访问步骤属性 244 6.4.3 访问网格搜索管道中的属性 244 6.5 网格搜索预处理步骤与模型参数 246 6.6 网格搜索选择使用哪个模型 248 6.7 小结与展望 249 第7 章 处理文本数据 250 7.1 用字符串表示的数据类型 250 7.2 示例应用:电影评论的情感分析 252 7.3 将文本数据表示为词袋 254 7.3.1 将词袋应用于玩具数据集 255 7.3.2 将词袋应用于电影评论 256 7.4 停用词 259 7.5 用tf-idf 缩放数据 260 7.6 研究模型系数 263 7.7 多个单词的词袋(n 元分词) 263 7.8 分词、词干提取与词形还原 267 7.9 主题建模与文档聚类 270 7.10 小结与展望 277 第8 章 全书总结 278 8.1 处理机器学习问题 278 8.2 从原型到生产 279 8.3 测试生产系统 280 8.4 构建你自己的估计器 280 8.5 下一步怎么走 281 8.5.1 理论 281 8.5.2 其他机器学习框架和包 281 8.5.3 排序、推荐系统与其他学习类型 282 8.5.4 概率建模、推断与概率编程 282 8.5.5 神经网络 283 8.5.6 推广到更大的数据集 283 8.5.7 磨练你的技术 284 8.6 总结 284 关于作者 285 关于封面 285 【编辑推荐】 机器学习已成为许多商业应用和研究项目不可或缺的一部分,海量数据使得机器学习的应用范围远超人们想象。本书将向所有对机器学习技术感兴趣的初学者展示,自己动手构建机器学习解决方案并非难事! 书中重点讨论机器学习算法的实践而不是背后的数学,全面涵盖在实践中实现机器学习算法的所有重要内容,帮助读者使用Python和scikit-learn库一步一步构建一个有效的机器学习应用。 * 机器学习的基本概念及其应用 * 常用机器学习算法的优缺点 * 机器学习所处理的数据的表示方法,包括重点关注数据的哪些方面 * 模型评估和调参的方法 * 管道的概念 * 处理文本数据的方法,包括文本特有的处理方法 * 进一步提高机器学习和数据科学技能的建议

2018-07-19

精通机器学习:基于R(第2版)

【目录】 第1章 成功之路1 1.1 流程1 1.2 业务理解2 1.2.1 确定业务目标3 1.2.2 现状评估4 1.2.3 确定分析目标4 1.2.4 建立项目计划4 1.3 数据理解4 1.4 数据准备5 1.5 建模5 1.6 评价6 1.7 部署6 1.8 算法流程图7 1.9 小结10 第 2章 线性回归:机器学习基础技术11 2.1 单变量回归11 2.2 多变量线性回归18 2.2.1 业务理解18 2.2.2 数据理解和数据准备18 2.2.3 模型构建与模型评价21 2.3 线性模型中的其他问题30 2.3.1 定性特征30 2.3.2 交互项32 2.4 小结34 第3章 逻辑斯蒂回归与判别分析35 3.1 分类方法与线性回归35 3.2 逻辑斯蒂回归36 3.2.1 业务理解36 3.2.2 数据理解和数据准备37 3.2.3 模型构建与模型评价41 3.3 判别分析概述46 3.4 多元自适应回归样条方法50 3.5 模型选择54 3.6 小结57 第4章 线性模型中的高 级特征选择技术58 4.1 正则化简介58 4.1.1 岭回归59 4.1.2 LASSO59 4.1.3 弹性网络60 4.2 商业案例60 4.2.1 业务理解60 4.2.2 数据理解和数据准备60 4.3 模型构建与模型评价65 4.3.1 * 优子集65 4.3.2 岭回归68 4.3.3 LASSO71 4.3.4 弹性网络73 4.3.5 使用glmnet进行交叉验证76 4.4 模型选择78 4.5 正则化与分类问题78 4.6 小结81 第5章 更多分类技术:K-* 近邻与 支持向量机82 5.1 K-* 近邻82 5.2 支持向量机84 5.3 商业案例86 5.3.1 业务理解86 5.3.2 数据理解和数据准备87 5.3.3 模型构建与模型评价92 5.3.4 模型选择98 5.4 SVM中的特征选择100 5.5 小结101 第6章 分类回归树103 6.1 本章技术概述103 6.1.1 回归树104 6.1.2 分类树104 6.1.3 随机森林105 6.1.4 梯度提升106 6.2 商业案例106 6.2.1 模型构建与模型评价107 6.2.2 模型选择121 6.2.3 使用随机森林进行特征选择121 6.3 小结123 第7章 神经网络与深度学习124 7.1 神经网络介绍124 7.2 深度学习简介128 深度学习资源与高 级方法130 7.3 业务理解131 7.4 数据理解和数据准备132 7.5 模型构建与模型评价136 7.6 深度学习示例139 7.6.1 H2O背景介绍139 7.6.2 将数据上载到H2O平台140 7.6.3 建立训练数据集和测试 数据集141 7.6.4 模型构建142 7.7 小结146 第8章 聚类分析147 8.1 层次聚类148 8.2 K-均值聚类149 8.3 果瓦系数与围绕中心的划分150 8.3.1 果瓦系数150 8.3.2 PAM151 8.4 随机森林151 8.5 业务理解152 8.6 数据理解与数据准备152 8.7 模型构建与模型评价155 8.7.1 层次聚类155 8.7.2 K-均值聚类162 8.7.3 果瓦系数和PAM165 8.7.4 随机森林与PAM167 8.8 小结168 第9章 主成分分析169 9.1 主成分简介170 9.2 业务理解173 9.3 模型构建与模型评价176 9.3.1 主成分抽取176 9.3.2 正交旋转与解释177 9.3.3 根据主成分建立因子得分178 9.3.4 回归分析178 9.4 小结184 * 10章 购物篮分析、推荐引擎与 序列分析185 10.1 购物篮分析简介186 10.2 业务理解187 10.3 数据理解和数据准备187 10.4 模型构建与模型评价189 10.5 推荐引擎简介192 10.5.1 基于用户的协同过滤193 10.5.2 基于项目的协同过滤194 10.5.3 奇异值分解和主成分分析194 10.6 推荐系统的业务理解198 10.7 推荐系统的数据理解与数据准备198 10.8 推荐系统的建模与评价200 10.9 序列数据分析208 10.10 小结214 * 11章 创建集成多类分类215 11.1 集成模型215 11.2 业务理解与数据理解216 11.3 模型评价与模型选择217 11.4 多类分类219 11.5 业务理解与数据理解220 11.6 模型评价与模型选择223 11.6.1 随机森林224 11.6.2 岭回归225 11.7 MLR集成模型226 11.8 小结228 * 12章 时间序列与因果关系229 12.1 单变量时间序列分析229 12.2 业务理解235 12.3 模型构建与模型评价240 12.3.1 单变量时间序列预测240 12.3.2 检查因果关系243 12.4 小结249 * 13章 文本挖掘250 13.1 文本挖掘框架与方法250 13.2 主题模型252 13.3 业务理解254 13.4 模型构建与模型评价257 13.4.1 词频分析与主题模型257 13.4.2 其他定量分析261 13.5 小结267 * 14章 在云上使用R语言268 14.1 创建AWS账户269 14.1.1 启动虚拟机270 14.1.2 启动Rstudio272 14.2 小结274 附录A R语言基础275 【作者简介】 Cory Leismester 具有十多年量化管理经验,目前在银行业担任高 级量化管理经理,负责构建市场营销和监管模型。曾在礼来公司任职16年,负责销售、市场调查、精益六西格玛、营销分析、新产品预测等工作。 【内容简介】 机器学习是近年来的热门技术话题,R语言是处理其中大量数据的有力工具。本书为读者提供机器学习和R语言的坚实算法基础和业务基础,内容包括机器学习基本概念、线性回归、逻辑回归和判别分析、线性模型的高 级选择特性、K* 近邻和支持向量机等,力图平衡实践中的技术和理论两方面。 本书适合试图理解和表述机器学习算法的IT人士、想在分析中发挥R强大威力的统计学专家。即使是同时精通IT技术和统计学的读者,在本书中仍然可以发现一些有用的窍门和技巧。 【编辑推荐】 本书使用R语言讲述机器学习高 级技术,带领读者深入研究统计学习理论和监督式学习,理解如何设计高效算法,学习构建推荐引擎,运用多类分类和深度学习,等等。通过探索数据挖掘、分类、聚类、回归、预测建模、异常检测等,本书帮助读者理解这些概念的工作原理和能够实现的操作。读者将循序渐进地学习神经网络等主题,探索深度学习等内容。通过不同方式使用不同的数据集,读者还可以在AWS等云平台上利用R亲手实践机器学习。

2018-07-19

Python 程序设计 (第3版)+代码

Python是一种解释型、面向对象、动态数据类型的高级程序设计语言,自20世纪90年代初诞生至今,逐渐被广泛应用于处理系统管理任务和Web编程。 本书用通俗易懂的语言结合常见任务、屏幕图和详细的解释,循序渐进地介绍了Python的基础知识,助你轻松、迅速地学习Python。书中没有深奥的理论或者高级应用,非常适合用来自学。读罢本书,你定能掌握Python的各项基础知识,成为一名真正的Python程序员!

2018-07-19

FormatDataLibsvm.xls

使用FormatDataLibsvm.xls进行的数据转换应该包括两两种数据的转换,一种是data.xls格式->data.svm格式的转换;另一种的带有逗号、空格、顿号、分号等文本数据的转换,先归为data.txt格式->data.svm格式的转换; 一、.xls格式->svm格式的转换(网上基本上介绍的都是该类型) 1、 运行FormatDataLibsvm.xls(注意这时会有一个关于“宏已禁宏”的安全警示,点击“选项”,选择“启用此内容”,确定即可); 2、打开data.xls,(注:网上很多的介绍都是直接将数据粘贴到sheet1的topleft单元),要特别注意的是这时候的数据排列顺序应该是: 条件属性a 条件属性b ... 决策属性 7 5 ... 2 4 2 ... 1 3、"工具"-->"宏"-->执行下面有一个选项(FormatDatatoLibsvm)-->执行,要选中这个然后点击“运行” ,这时候数据讲变成: 决策属性 条件属性a 条件属性b ... 2 1:7 2:5 ... 1 1:4 2:2 ... 等数据转换完成后,将该文件保存为.txt文件。这时数据转换的问题就解决了。 二、.txt格式->svm格式的转换 首先说明的是,这里所提的.txt文本数据是指数据文件带有逗号、空格、顿号、分号等数据分离符号的数据文件。因为其用符号来分离,导致所有数据项都归类为一个属性,无法实现上面2步骤的格式输入,也就无法实现正确结果格式的输出了。 为了解决该问题,转换该过程与上面一过程的最大不同就在于:在打开该.txt文件的时候根据文本数据本身的数据特点将其所包含的逗号、分号、制表符等数据分离的符号去掉;具体的做法是:转换运行FormatDataLibsvm.xls,“文件”->“打开”->选择要打开的data,txt文件,接着在文本导入向导中根据data.txt文件本身的数据特点选择“原始数据类型(分隔符号)”;接着选择分隔符号的类型(目地是使得该数据分成独立的一列列数据,分离成功的话,在数据预览中将可以看到一列列分离独立的数据) :选择“列数据格式”(常规)->完成; 这时候只要调整上面"一"过程的数据格式,重复其后面的步骤2、3操作即可。

2018-07-17

python_dateutil-2.6.0-py2.py3-none-any.whl

python_dateutil-2.6.0-py2.py3-none-any.whl 方便在官网下载不了的童靴下载使,注意看清版本在下载,这个是Python3及以上的 dateutil 2.6.0 版本,别浪费积分,谢谢

2018-07-13

python_dateutil-2.4.2-py2.py3-none-any.whl

python_dateutil-2.4.2-py2.py3-none-any.whl 文件包,方便在官网下载不了的童靴可以下载使用奥

2018-07-13

决策树算法原理详解

【文档说明】 本文是自己整理的一些重点知识点,也是面试中会被问到的知识点 【文档结构】 决策树 信息熵(Entropy) 什么是决策树 决策树的构建过程 决策树分割属性选择 决策树量化纯度 决策树量化纯度 信息增益率计算方式 决策树的停止条件 决策树算法效果评估 决策树生成算法 ID3算法 ID3算法优缺点 C4.5算法 8 CART算法 8 ID3\C4.5\CART分类回归树算法总结 分类树和回归树的区别 决策树优化策略 决策树的剪枝 决策树剪枝过程 附录:

2018-07-03

python代码600例

python代码例子600个,不多说,都是干货,干货,干货,干货

2018-07-02

机器学习导论

【作者简介】 (阿培丁)Ethem Alpaydin,是土耳其伊斯坦布尔博阿齐奇大学计算机工程系的教授。于1990年在洛桑联邦理工学院获博士学位,之后先后在美国麻省理工和伯克利大学工作和进行博士后研究。Ethem博士主要从事机器学习方面的研究,是剑桥大学的《The Computer Journal》杂志编委和Elsevier的《Pattern Recognition》杂志的副主编。2001年和2002年,Ethem博士先后获得土耳其科学院青年科学家奖和土耳其科学与技术研究委员会科学奖。 【内容简介】 对机器学习的定义和应用实例进行了介绍,涵盖了监督学习。贝叶斯决策理论。参数方法、多元方法、维度归约、聚类、非参数方法、决策树。线性判别式、多层感知器,局部模型、隐马尔可夫模型。分类算法评估和比较,组合多学习器以及增强学习等。 [1] 机器学习的目标是对计算机编程,以便使用样本数据或以往的经验来解决给定的问题。已经有许多机器学习的成功应用,包括分析以往销售数据来预测客户行为,人脸识别或语音识别,优化机器人行为以便使用最少的资源来完成任务,以及从生物信息数据中提取知识的各种系统。为了对机器学习问题和解进行统一的论述,《机器学习导论》讨论了机器学习在统计学、模式识别、神经网络。人工智能。信号处理、控制和数据挖掘等不同领域的应用。对所有学习算法都进行了解释,以便读者可以容易地将书中的公式转变为计算机程序。《机器学习导论》可作为高等院校计算机相关专业高年级本科生和研究生的教材,也可供研究机器学习方法的技术人员参考。

2018-07-02

决策树与Adaboost

Boosting, 也称为增强学习或提升法,是一种重要的集成学习技术, 能够将预测精度仅比随机猜度略高的弱学习器增强为预测精度高的强学习器,这在直接构造强学习器非常困难的情况下,为学习算法的设计提供了一种有效的新思路和新方法。其中最为成功应用的是,Yoav Freund和Robert Schapire在1995年提出的AdaBoost算法。 AdaBoost是英文"Adaptive Boosting"(自适应增强)的缩写,它的自适应在于:前一个基本分类器被错误分类的样本的权值会增大,而正确分类的样本的权值会减小,并再次用来训练下一个基本分类器。同时,在每一轮迭代中,加入一个新的弱分类器,直到达到某个预定的足够小的错误率或达到预先指定的最大迭代次数才确定最终的强分类器。

2018-06-30

机器学习实战-中文版

介绍并实现机器学习的主流算法   面向日常任务的高效实战内容   《机器学习实战》没有从理论角度来揭示机器学习算法背后的数学原理,而是通过“原理简述+问题实例+实际代码+运行效果”来介绍每一个算法。学习计算机的人都知道,计算机是一门实践学科,没有真正实现运行,很难真正理解算法的精髓。这本书的好处就是边学边用,非常适合于急需迈进机器学习领域的人员学习。实际上,即使对于那些对机器学习有所了解的人来说,通过代码实现也能进一步加深对机器学习算法的理解。   《机器学习实战》的代码采用Python语言编写。Python代码简单优雅、易于上手,科学计算软件包众多,已经成为不少大学和研究机构进行计算机教学和科学计算的语言。相信Python编写的机器学习代码也能让读者尽快领略到这门学科的精妙之处。 【内容简介】 机器学习是人工智能研究领域中一个极其重要的研究方向,在现今的大数据时代背景下,捕获数据并从中萃取有价值的信息或模式,成为各行业求生存、谋发展的决定性手段,这使得这一过去为分析师和数学家所专属的研究领域越来越为人们所瞩目。   《机器学习实战》主要介绍机器学习基础,以及如何利用算法进行分类,并逐步介绍了多种经典的监督学习算法,如k近邻算法、朴素贝叶斯算法、Logistic回归算法、支持向量机、AdaBoost集成方法、基于树的回归算法和分类回归树(CART)算法等。第三部分则重点介绍无监督学习及其一些主要算法:k均值聚类算法、Apriori算法、FP-Growth算法。第四部分介绍了机器学习算法的一些附属工具。 【推荐理由】   《机器学习实战》通过精心编排的实例,切入日常工作任务,摒弃学术化语言,利用高效的可复用Python代码来阐释如何处理统计数据,进行数据分析及可视化。通过各种实例,读者可从中学会机器学习的核心算法,并能将其运用于一些策略性任务中,如分类、预测、推荐。另外,还可用它们来实现一些更高级的功能,如汇总和简化等。 【目录】 第一部分 分类 第1章 机器学习基础   1.1  何谓机器学习   1.1.1  传感器和海量数据   1.1.2  机器学习非常重要   1.2  关键术语   1.3  机器学习的主要任务   1.4  如何选择合适的算法   1.5  开发机器学习应用程序的步骤   1.6  Python语言的优势   1.6.1  可执行伪代码   1.6.2  Python比较流行   1.6.3  Python语言的特色   1.6.4  Python语言的缺点   1.7  NumPy函数库基础   1.8  本章小结   第2章 k-近邻算法    2.1  k-近邻算法概述   2.1.1  准备:使用Python导入数据   2.1.2  从文本文件中解析数据   2.1.3  如何测试分类器   2.2  示例:使用k-近邻算法改进约会网站的配对效果   2.2.1  准备数据:从文本文件中解析数据   2.2.2  分析数据:使用Matplotlib创建散点图   2.2.3  准备数据:归一化数值   2.2.4  测试算法:作为完整程序验证分类器   2.2.5  使用算法:构建完整可用系统   2.3  示例:手写识别系统   2.3.1  准备数据:将图像转换为测试向量   2.3.2  测试算法:使用k-近邻算法识别手写数字   2.4  本章小结   第3章 决策树    3.1  决策树的构造   3.1.1  信息增益   3.1.2  划分数据集   3.1.3  递归构建决策树   3.2  在Python中使用Matplotlib注解绘制树形图   3.2.1  Matplotlib注解   3.2.2  构造注解树   3.3  测试和存储分类器   3.3.1  测试算法:使用决策树执行分类   3.3.2  使用算法:决策树的存储   3.4  示例:使用决策树预测隐形眼镜类型   3.5  本章小结   第4章 基于概率论的分类方法:朴素贝叶斯    4.1  基于贝叶斯决策理论的分类方法   4.2  条件概率   4.3  使用条件概率来分类   4.4  使用朴素贝叶斯进行文档分类   4.5  使用Python进行文本分类   4.5.1  准备数据:从文本中构建词向量   4.5.2  训练算法:从词向量计算概率   4.5.3  测试算法:根据现实情况修改分类器   4.5.4  准备数据:文档词袋模型   4.6  示例:使用朴素贝叶斯过滤垃圾邮件   4.6.1  准备数据:切分文本   4.6.2  测试算法:使用朴素贝叶斯进行交叉验证   4.7  示例:使用朴素贝叶斯分类器从个人广告中获取区域倾向   4.7.1  收集数据:导入RSS源   4.7.2  分析数据:显示地域相关的用词   4.8  本章小结   第5章 Logistic回归    5.1  基于Logistic回归和Sigmoid函数的分类   5.2  基于最优化方法的最佳回归系数确定   5.2.1  梯度上升法   5.2.2  训练算法:使用梯度上升找到最佳参数   5.2.3  分析数据:画出决策边界   5.2.4  训练算法:随机梯度上升   5.3  示例:从疝气病症预测病马的死亡率   5.3.1  准备数据:处理数据中的缺失值   5.3.2  测试算法:用Logistic回归进行分类   5.4  本章小结   第6章 支持向量机   6.1  基于最大间隔分隔数据   6.2  寻找最大间隔   6.2.1  分类器求解的优化问题   6.2.2  SVM应用的一般框架   6.3  SMO高效优化算法   6.3.1  Platt的SMO算法   6.3.2  应用简化版SMO算法处理小规模数据集   6.4  利用完整Platt SMO算法加速优化   6.5  在复杂数据上应用核函数   6.5.1  利用核函数将数据映射到高维空间   6.5.2  径向基核函数   6.5.3  在测试中使用核函数   6.6  示例:手写识别问题回顾   6.7  本章小结   第7章 利用AdaBoost元算法提高分类 性能    7.1  基于数据集多重抽样的分类器   7.1.1  bagging:基于数据随机重抽样的分类器构建方法   7.1.2  boosting   7.2  训练算法:基于错误提升分类器的性能   7.3  基于单层决策树构建弱分类器   7.4  完整AdaBoost算法的实现   7.5  测试算法:基于AdaBoost的分类   7.6  示例:在一个难数据集上应用AdaBoost   7.7  非均衡分类问题   7.7.1  其他分类性能度量指标:正确率、召回率及ROC曲线   7.7.2  基于代价函数的分类器决策控制   7.7.3  处理非均衡问题的数据抽样方法   7.8  本章小结   第二部分 利用回归预测数值型数据 第8章 预测数值型数据:回归    8.1  用线性回归找到最佳拟合直线   8.2  局部加权线性回归   8.3  示例:预测鲍鱼的年龄   8.4  缩减系数来“理解”数据   8.4.1  岭回归   8.4.2  lasso   8.4.3  前向逐步回归   8.5  权衡偏差与方差   8.6  示例:预测乐高玩具套装的价格   8.6.1  收集数据:使用Google购物的API   8.6.2  训练算法:建立模型   8.7  本章小结   第9章 树回归   9.1  复杂数据的局部性建模   9.2  连续和离散型特征的树的构建   9.3  将CART算法用于回归   9.3.1  构建树   9.3.2  运行代码   9.4  树剪枝   9.4.1  预剪枝   9.4.2  后剪枝   9.5  模型树   9.6  示例:树回归与标准回归的比较   9.7  使用Python的Tkinter库创建GUI   9.7.1  用Tkinter创建GUI   9.7.2  集成Matplotlib和Tkinter   9.8  本章小结   第三部分 无监督学习 第10章 利用K-均值聚类算法对未标注数据分组   10.1  K-均值聚类算法   10.2  使用后处理来提高聚类性能   10.3  二分K-均值算法   10.4  示例:对地图上的点进行聚类   10.4.1  Yahoo! PlaceFinder API   10.4.2  对地理坐标进行聚类   10.5  本章小结   第11章 使用Apriori算法进行关联分析   11.1  关联分析   11.2  Apriori原理   11.3  使用Apriori算法来发现频繁集   11.3.1  生成候选项集   11.3.2  组织完整的Apriori算法   11.4  从频繁项集中挖掘关联规则   11.5  示例:发现国会投票中的模式   11.5.1  收集数据:构建美国国会投票记录的事务数据集   11.5.2  测试算法:基于美国国会投票记录挖掘关联规则   11.6  示例:发现毒蘑菇的相似特征   11.7  本章小结   第12章 使用FP-growth算法来高效发现频繁项集   12.1  FP树:用于编码数据集的有效方式   12.2  构建FP树   12.2.1  创建FP树的数据结构   12.2.2  构建FP树   12.3  从一棵FP树中挖掘频繁项集   12.3.1  抽取条件模式基   12.3.2  创建条件FP树   12.4  示例:在Twitter源中发现一些共现词   12.5  示例:从新闻网站点击流中挖掘   12.6  本章小结   第四部分 其他工具 第13章 利用PCA来简化数据   13.1  降维技术   13.2  PCA   13.2.1  移动坐标轴   13.2.2  在NumPy中实现PCA   13.3  示例:利用PCA对半导体制造数据降维   13.4  本章小结   第14章 利用SVD简化数据   14.1  SVD的应用   14.1.1  隐性语义索引   14.1.2  推荐系统   14.2  矩阵分解   14.3  利用Python实现SVD   14.4  基于协同过滤的推荐引擎   14.4.1  相似度计算   14.4.2  基于物品的相似度还是基于用户的相似度?   14.4.3  推荐引擎的评价   14.5  示例:餐馆菜肴推荐引擎   14.5.1  推荐未尝过的菜肴   14.5.2  利用SVD提高推荐的效果   14.5.3  构建推荐引擎面临的挑战   14.6  基于SVD的图像压缩   14.7  本章小结   第15章 大数据与MapReduce   15.1  MapReduce:分布式计算的框架   15.2  Hadoop流   15.2.1  分布式计算均值和方差的mapper   15.2.2  分布式计算均值和方差的reducer   15.3  在Amazon网络服务上运行Hadoop程序   15.3.1  AWS上的可用服务   15.3.2  开启Amazon网络服务之旅   15.3.3  在EMR上运行Hadoop作业   15.4  MapReduce上的机器学习   15.5  在Python中使用mrjob来自动化MapReduce   15.5.1  mrjob与EMR的无缝集成   15.5.2  mrjob的一个MapReduce脚本剖析   15.6  示例:分布式SVM的Pegasos算法   15.6.1  Pegasos算法   15.6.2  训练算法:用mrjob实现MapReduce版本的SVM   15.7  你真的需要MapReduce吗?   15.8  本章小结   附录A  Python入门   附录B  线性代数   附录C  概率论复习   附录D  资源   索引   版权声明

2018-06-30

自然语言处理综论.pdf

https://public-download.csdn.net/uploads_album/sourcebanner/books/books_1390499.jpg 本书是一本全面系统地讲述计算机自然语言处理的优秀教材。本书英文版出版之后好评如潮,国外许多著名大学纷纷把本书选为自然语言处理和计算语言学课程的主要教材,该书被誉为该领域教材的“黄金标准”。本书包含的内容十分丰富,分为四个部分,共21章,深入细致地探讨了计算机处理自然语言的词汇、句法、语义、语用等各个方面的问题,介绍了自然语言处理的各种现代技术。从层次的角度看,本书的论述是按照自然语言的不同层面逐步展开的,首先论述单词的自动形态分析,接着论述自动句法分析,然后论述各种语言单位的自动语义分析,最后论述连贯文本的自动分析、对话与会话的智能代理以及自然语言生成。从技术的角度看,本书介绍了正则表达式、有限状态自动机、文本-语音转换、发音与拼写的概率模型、词类自动标注、N元语法、隐马尔可夫模型、上下文无关语法、特征与合一、词汇化剖析与概率剖析、一阶谓词演算、词义排歧、修辞结构理论、机器翻译等非常广泛的内容。本书具有“覆盖全面、注重实用、强调评测、语料为本”四大特色。在本书的配套网站上,还提供了相关的资源和工具,便于读者在实践中进一步提高。, -------, 目录, 第1章 导论, 1.1 语音与语言处理中的知识, 1.2 歧义, 1.3 模型和算法, 1.4 语 言. 思维和理解, 1.5 学科现状与近期发展, 1.6 语音和语言处理简史, 1.6.1 基础研究:20世纪40年代和20世纪50年代, 1.6.2 两个阵营:1957年至1970年, 1.6.3 四个范型:1970年至1983年, 1.6.4 经验主义和有限状态模型的复苏:1983年至1993年, 1.6.5 不同领域的合流:1994年至1999年, 1.6.6 多重发现, 1.6.7 心理学的简要注记, 1.7 小结, 1.8 文献和历史说明, 第一部分 词汇的计算机处理, 第2章 正则表达式与自动机, 2.1 正则表达式, 2.1.1 基本正则表达式模式, 2.1.2 析取. 组合与优先关系, 2.1.3 一个简单的例子, 2.1.4 一个比较复杂的例子, 2.1.5 高级算符, 2.1.6 正则表达式中的替换. 存储器与ELIZA, 2.2 有限状态自动机, 2.2.1 用FSA来识别羊的语言, 2.2.2 形式语言, 2.2.3 另外的例子, 2.2.4 非确定FSA, 2.2.5 使用NFSA接收符号串, 2.2.6 识别就是搜索, 2.2.7 确定自动机与非确定自动机的关系, 2.3 正则语言与FSA, 2.4 小结, 2.5 文献和历史说明, 第3章 形态学与有限状态转录机, 3.1 英语形态学概观, 3.1.1 屈折形态学, 3.1.2 派生形态学, 3.2 有限状态形态剖析, 3.2.1 词表和形态顺序规则, 3.2.2 用有限状态转录机进行形态剖析, 3.2.3 正词法规则和有限状态转录机, 3.3 把FST词表与规则相结合, 3.4 与词表无关的FST:PORTER词干处理器, 3.5 人是怎样进行形态处理的, 3.6 小结, 3.7 文献和历史说明, 第4章 计算音系学与文本-语音转换, 4.1 言语语音与语音标音法, 4.1.1 发音器官, 4.1.2 辅音:发音部位, 4.1.3 辅音:发音方法, 4.1.4 元音, 4.1.5 音节, 4.2 音位和音位规则, 4.3 音位规则和转录机, 4.4 计算音系学中的一些高级问题, 4.4.1 元音和谐, 4.4.2 模板式形态学, 4.4.3 优选理论, 4.5 音位规则的机器学习, 4.6 TTS中从文本映射到语音, 4.6.1 发音词典, 4.6.2 词典之外的查找:文本分析, 4.6.3 基于有限状态转录机(FST)的发音词典, 4.7 文本-语音转换中的韵律, 4.7.1 韵律的音系学性质, 4.7.2 韵律的语音和声学性质, 4.7.3 语音合成中的韵律, 4.8 人处理音位和形态的过程, 4.9 小结, 4.10 文献和历史说明, 第5章 发音与拼写的概率模型, 5.1 关于拼写错误, 5.2 拼写错误模式, 5.3 非词错误的检查, 5.4 概率模型, 5.5 把贝叶斯方法应用于拼写, 5.6 最小编辑距离, 5.7 英语的发音变异, 5.8 发音问题研究中的贝叶斯方法, 5.8.1 发音变异的决策树模型, 5.9 加权自动机, 5.9.1 从加权自动机计算似然度:向前算法, 5.9.2 解码:Viterbi算法, 5.9.3 加权自动机和切分, 5.9.4 用切分来进行词表的自动归纳, 5.10 人类发音研究, 5.11 小结, 5.12 文献和历史说明, 第6章 N元语法, 6.1 语料库中单词数目的计算, 6.2 简单的(非平滑的)N元语法, 6.2.1 N元语法及其对训练语料库的敏感性, 6.3 平滑, 6.3.1 加1平滑, 6.3.2 Witten-Bell打折法, 6.3.3 Good-Turing打折法, 6.4 回退, 6.4.1 回退与打折相结合, 6.5 删除插值法, 6.6 拼写和发音的N元语法, 6.6.1 上下文有关的错拼更正, 6.6.2 发音模型的N元语法, 6.7 熵, 6.7.1 用于比较模型的交叉熵, 6.7.2 英语的熵, 6.8 小结, 6.9 文献和历史说明, 第7章 HMM与语音识别, 7.1 语音识别的总体结构, 7.2 隐马尔可夫模型概述, 7.3 再谈Viterbi算法, 7.4 先进的解码方法, 7.4.1 A*解码算法, 7.5 语音的声学处理, 7.5.1 声波, 7.5.2 怎样解释波形, 7.5.3 声谱, 7.5.4 特征抽取, 7.6 声学概率的计算, 7.7 语音识别系统的训练, 7.8 用于语音合成的波形生成, 7.8.1 音高和音延的修正, 7.8.2 单元选择, 7.9 人的语音识别, 7.10 小结, 7.11 文献和历史说明, 第二部分 句法的计算机处理, 第8章 词的分类与词类标注, 8.1 大多数英语词的分类, 8.2 英语的标记集, 8.3 词类标注, 8.4 基于规则的词类标注, 8.5 随机词类标注, 8.5.1 说明问题的一个例子, 8.5.2 实际的HMM标注算法, 8.6 基于转换的标注, 8.6.1 怎样应用TBL规则, 8.6.2 怎样学习TBL规则, 8.7 其他问题, 8.7.1 多重标记和多项词, 8.7.2 未知词, 8.7.3 基于类的N元语法, 8.8 小结, 8.9 文献和历史说明, 第9章 英语的上下文无关语法, 9.1 组成性, 9.2 上下文无关规则和树, 9.3 句子级的结构, 9.4 名词短语, 9.4.1 在中心名词前的成分, 9.4.2 名词后的成分, 9.5 并列关系, 9.6 一致关系, 9.7 动词短语和次范畴化, 9.8 助动词, 9.9 口语的句法, 9.9.1 不流畅现象, 9.10 语法等价与范式, 9.11 有限状态语法和上下文无关语法, 9.12 语法和人的语言处理, 9.13 小结, 9.14 文献和历史说明, 第10章 基于上下文无关语法的剖析, 10.1 剖析就是搜索, 10.1.1 自顶向下剖析, 10.1.2 自底向上剖析, 10.1.3 自顶向下剖析与自底向上剖析的对比, 10.2 基本的自顶向下剖析, 10.2.1 增加自底向上过滤, 10.3 基本的自顶向下剖析的问题, 10.3.1 左递归, 10.3.2 歧义, 10.3.3 子树的重复剖析, 10.4 Earley算法, 10.4.1 预测, 10.4.2 扫描, 10.4.3 完成, 10.4.4 示例, 10.4.5 从线图中检索剖析树, 10.5 有限状态剖析方法, 10.6 小结, 10.7 文献和历史说明, 第11章 特征与合一, 11.1 特征结构, 11.2 特征结构的合一, 11.3 语法中的特征结构, 11.3.1 一致关系, 11.3.2 中心语特征, 11.3.3 次范畴化, 11.3.4 其他词类的次范畴化, 11.3.5 长距离依存关系, 11.4 合一的实现, 11.4.1 合一的数据结构, 11.4.2 合一算法, 11.5 带有合一约束的剖析, 11.5.1 把合一结合到Earley剖析器中, 11.5.2 复制的必要性, 11.5.3 合一剖析, 11.6 类型与继承, 11.6.1 类型的扩充, 11.6.2 合一的其他扩充, 11.7 小结, 11.8 文献和历史说明, 第12章 词汇化剖析与概率剖析, 12.1 概率上下文无关语法, 12.1.1 PCFG的概率CYK剖析, 12.1.2 PCFG概率的学习, 12.2 PCFG的问题, 12.3 概率词汇化的CFG, 12.4 依存语法, 12.4.1 范畴语法, 12.5 人的剖析, 12.6 小结, 12.7 文献和历史说明, 第13章 语言的复杂性, 13.1 Chomsky层级, 13.2 怎么判断一种语言不是正则的, 13.2.1 抽吸引理, 13.2.2 英语和其他自然语言是正则语言吗, 13.3 自然语言是上下文无关的吗, 13.4 计算复杂性和人的语言处理, 13.5 小结, 13.6 文献和历史说明, 第三部分 语义的计算机处理, 第14章 意义的表示法, 14.1 意义表示的计算要求, 14.1.1 可能性验证, 14.1.2 无歧义表示, 14.1.3 规范形式, 14.1.4 推论与变元, 14.1.5 表达能力, 14.2 语言的意义结构, 14.2.1 谓词论元结构, 14.3 一阶谓词演算, 14.3.1 FOPC基础, 14.3.2 FOPC的语义, 14.3.3 变量和逻辑量词, 14.3.4 推论, 14.4 某些与语言学相关的概念, 14.4.1 范畴, 14.4.2 事件, 14.4.3 时间表示, 14.4.4 体, 14.4.5 信念表示, 14.4.6 缺陷, 14.5 有关的表示方法, 14.6 意义的其他表示方法, 14.6.1 作为行动的意义, 14.6.2 作为真值的意义, 14.7 小结, 14.8 文献和历史说明, 第15章 语义分析, 15.1 句法驱动的语义分析, 15.1.1 给上下文无关语法规则扩充语义, 15.1.2 量词辖域和复杂项的转译, 15.2 给英语片断附加语义分析, 15.2.1 句子, 15.2.2 名词短语, 15.2.3 动词短语, 15.2.4 介词短语, 15.3 把语义分析结合到Earley剖析中, 15.4 惯用语和组成性, 15.5 鲁棒的语义分析, 15.5.1 语义语法, 15.5.2 信息抽取, 15.6 小结, 15.7 文献和历史说明, 第16章 词汇语义学, 16.1 词位及其涵义之间的关系, 16.1.1 同形关系, 16.1.2 多义关系, 16.1.3 同义关系, 16.1.4 上下位关系, 16.2 WORDNET:词汇关系信息库, 16.3 词的内在结构, 16.3.1 题元角色, 16.3.2 选择限制, 16.3.3 基元分解, 16.3.4 语义场, 16.4 语言的创造性与词典, 16.4.1 隐喻, 16.4.2 换喻, 16.4.3 隐喻和换喻的计算方法, 16.5 小结, 16.6 文献和历史说明, 第17章 词义排歧与信息检索, 17.1 基于选择限制的排歧, 17.1.1 选择限制的局限性, 17.2 鲁棒的词义排歧, 17.2.1 机器学习方法, 17.2.2 基于词典的方法, 17.3 信息检索, 17.3.1 向量空间模型, 17.3.2 检索词加权, 17.3.3 检索词的选择和创造, 17.3.4 同形关系. 多义关系和同义关系, 17.3.5 改进用户的查询条件, 17.4 信息检索的其他任务, 17.5 小结, 17.6 文献和历史说明, 第四部分 语用的计算机处理, 第18章 话语, 18.1 所指判定, 18.1.1 所指现象, 18.1.2 同指的句法和语义约束, 18.1.3 代词解释中的优先关系, 18.1.4 代词判定算法, 18.2 文本的连贯, 18.2.1 现象, 18.2.2 基于推理的判定算法, 18.3 话语结构, 18.4 所指和连贯的心理语言学研究, 18.5 小结, 18.6 文献和历史说明, 第19章 对话与会话智能代理, 19.1 什么使对话出现差别, 19.1.1 话轮和话段, 19.1.2 对话的共同基础, 19.1.3 会话隐涵, 19.2 对话行为, 19.3 对话行为的自动解释, 19.3.1 对话行为的计划推理解释, 19.3.2 对话行为的基于提示的解释, 19.3.3 要点, 19.4 对话结构与连贯性, 19.5 会话智能代理中的对话管理, 19.6 小结, 19.7 文献和历史说明, 第20章 自然语言生成, 20.1 语言生成导引, 20.2 生成的体系结构, 20.3 表层实现, 20.3.1 系统语法, 20.3.2 功能合一语法, 20.3.3 要点, 20.4 话语规划, 20.4.1 文本说明图, 20.4.2 修辞关系, 20.4.3 小结, 20.5 其他问题, 20.5.1 微规划, 20.5.2 词汇选择, 20.5.3 生成系统评价, 20.5.4 语音生成, 20.6 小结, 20.7 文献和历史说明, 第21章 机器翻译, 21.1 语言的相似性和差异性, 21.2 转换模型, 21.2.1 句法转换, 21.2.2 词汇转换, 21.3 中间语的思想:使用意义, 21.4 直接转换, 21.5 使用统计技术, 21.5.1 流畅性的量化, 21.5.2 忠实性的量化, 21.5.3 输出的搜索, 21.6 可用性与系统开发, 21.7 小结, 21.8 文献和历史说明, 附录A 正则表达式的算符, 附录B PORTER STEMMING算法, 附录C 标记集C5和C7, 附录D HMM模型的训练:向前-向后算法, 参考文献, 术语表

2018-06-19

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除