自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 资源 (6)
  • 收藏
  • 关注

原创 PocketSpinx添加中文语音识别包

原版pocketspinx只支持英文语音识别,现在添加中文包。1.下载中文包:官方链接或我上传的(还没传)2. 按照我之前一篇安装好spinx后,可在python目录下找到模型位置(我的是…\Anaconda3\Lib\site-packages\speech_recognition\pocketsphinx-data)可通过import speech_recognition as sr,...

2020-02-27 10:52:04 2515 1

原创 Windows下安装Sphinx时pip install pocketsphinx报错的解决方法

使用SpeechRecognition中的.recognition_sphinx()进行离线语音识别前,需要先pip install pocketsphinx遇到... error: command 'swig.exe' failed: No such file or directory...... Failed building wheel for pocketsphinx ...等问...

2020-02-27 00:28:29 6970 8

原创 D2L-pytorch版 Task08笔记

文本分类文本情感分类文本分类是自然语言处理的一个常见任务,它把一段不定长的文本序列变换为文本的类别。本节关注它的一个子问题:使用文本情感分类来分析文本作者的情绪。这个问题也叫情感分析,并有着广泛的应用。同搜索近义词和类比词一样,文本分类也属于词嵌入的下游应用。在本节中,我们将应用预训练的词向量和含多个隐藏层的双向循环神经网络与卷积神经网络,来判断一段不定长的文本序列中包含的是正面还是...

2020-02-24 13:32:27 463

原创 D2L-pytorch版 Task07笔记

优化算法进阶1.Momentum目标函数有关自变量的梯度代表了目标函数在自变量当前位置下降最快的方向。因此,梯度下降也叫作最陡下降(steepest descent)。在每次迭代中,梯度下降根据自变量当前位置,沿着当前位置的梯度更新自变量。然而,如果自变量的迭代方向仅仅取决于自变量当前位置,这可能会带来一些问题。对于noisy gradient,我们需要谨慎的选取学习率和batch size,...

2020-02-23 20:39:18 278

原创 D2L-pytorch版 Task06笔记

批量归一化和残差网络批量归一化(BatchNormalization)对输入的标准化(浅层模型)处理后的任意一个特征在数据集中所有样本上的均值为0、标准差为1。标准化处理输入数据使各个特征的分布相近批量归一化(深度模型)利用小批量上的均值和标准差,不断调整神经网络中间输出,从而使整个神经网络在各层的中间输出的数值更稳定。1.对全连接层做批量归一化位置:全...

2020-02-23 10:45:45 140

原创 D2L-pytorch版 Task05笔记

卷积神经网络基础leNet卷积神经网络进阶

2020-02-18 20:56:00 211

原创 D2L-pytorch版 Task04笔记

机器翻译及相关技术机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。数据预处理,解决乱码问题,大小写统一等。分词,将句子转化成词序列列表。建立词典,根据词频、特殊token等将词加入词典,然后建立token和ID的映射。数据集处理,根据max...

2020-02-18 09:55:26 218

原创 D2L-pytorch版 Task03笔记

过拟合、欠拟合及其解决方案训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。机器学习...

2020-02-16 20:54:17 131

原创 D2L-pytorch版 Task02笔记

文本预处理理解:先分词,将长句文本划分为词(token),转化成词序列。然后建立字典,将词映射到索引编号,即将字符串转化为数字以方便模型处理。接着就可以把文本的句子转化为索引序列。spaCy、NLTK是很好的分词工具。存疑:中文文本预处理也是一样的吗?...

2020-02-14 15:17:56 114

原创 D2L-pytorch版 Task01笔记

线性回归理解:为建立可联系某相关量之间关系的模型并预测真实值,并使用损失函数衡量预测值与真实值之间的误差,通过优化算法有限次迭代模型参数来尽可能降低损失函数的值。使用矢量计算可大大减少计算耗时。存疑:在多个参数中,网络需不需要找到对损失函数结果影响最大的参数,又是如何做到的?SoftMax与分类模型理解:将所有类别输出转化为和为1的概率值,解决了直接以输出作为判别为该类的置信度时存在...

2020-02-12 20:44:17 288

pocketsphinx-0.1.15-cp37-cp37m-win_amd64.whl

官方给的安装步骤挺麻烦的,这个是最新的pocketsphinx-0.1.15-cp37-cp37m-win_amd64.whl

2020-02-27

sphinx中文包zh-CN.zip

官方下载链接在这里https://drive.google.com/open?id=0Bw_EqP-hnaFNSWdqdm5maWZtTGc 这个备用

2020-02-27

X-VECTORS ROBUST DNN EMBEDDINGS FOR SPEAKER RECOGNITION 中文.pdf

本人精翻的《X-VECTORS ROBUST DNN EMBEDDINGS FOR SPEAKER RECOGNITION》

2019-07-08

Deep Neural Network Embeddings for Text-Indenpendent Speaker Verification 中文.pdf

本人精翻的Deep Neural Network Embeddings for Text-Indenpendent Speaker Verification ,欢迎下载。

2019-07-08

getNameNumber.py

用于批量获取文件夹名及文件夹内文件数量。 写这个脚本的起因是,爬了好多类好多图片,要做个记录,手工打挺累的。 使用这个脚本的方法: 1.把getNameNumber.py放入你要计算的文件夹下 2.python getNameNumber.py 会生成一个文件夹对应文件夹内文件数量的txt。

2019-07-08

Insight Face论文翻译:ArcFace: Additive Angular Margin Loss for Deep Face Recognition

本人翻译的Insight Face论文:ArcFace: Additive Angular Margin Loss for Deep Face Recognition。由于水平有限,因此文中很多名词不明白怎么翻译,还有可能存在一些地方有错误翻译,建议对照英文版原文比对着看。如果发现有翻译错误的,还请见谅并且通知我,或者有更好的理解,欢迎交流,谢谢。

2019-04-12

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除