自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 CentOS下、Ubuntu下分别安装ROUGE

本人笔记本安装的双系统是Ubuntu18.04,而服务器是Centos系统。因此两个系统下都安装了文本摘要的评价方法 ROUGE。本文分别参照在Ubuntu系统下安装ROUGE,Centos系统下安装ROUGE。现将自己所遇到的坑记录一下。在安装的过程的第六步step6: 安装XML::DOM时,我碰到了两个坑。一,Centos时,perl安装的扩展包不够导致不成功。解决办法:1.切...

2019-08-01 16:11:34 475

原创 docker 国内加速源

https://registry.docker-cn.com/ 貌似已经停止服务,建议换成 http://hub-mirror.c.163.com 网易docker镜像加速源。

2021-12-30 13:56:11 507

原创 sklearn的ParameterGrid类输出结果

ParameterGrid这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出...

2019-12-17 09:46:06 1145

转载 Attention注意力机制

Attention原理Attention的原理就是计算当前输入序列与输出向量的匹配程度,匹配度高也就是注意力集中点,其相对的得分也越高。其中Attention计算得到的匹配度权重,只限于当前序列对。算法过程1,encode对输入序列编码得到最后一个时间步的状态c和每一时间步的输出h,其中c又作为decode的初始状态z0。2,对于每个时间步的h和z0做匹配,也就是match操作,得到每个时...

2019-09-30 14:28:54 446

原创 pytorch模型转为TensorFlow模型的代码

将模型pytorch_model.bin转成bert_model.ckpt的方法:import numpy as npimport tensorflow as tfimport torchv_list=[]for k,v in torch.load('pytorch_model.bin',map_location='cpu').items(): v_list.append(np...

2019-09-09 14:05:09 10359 6

原创 tf.contrib.seq2seq.DynamicAttentionWrapper报错问题

tensorflow版本 1.3.1将tf.contrib.seq2seq.DynamicAttentionWrapper()改为tf.contrib.seq2seq.AttentionWrapper()即可具体参考链接:https://docs.w3cub.com/tensorflow~python/tf/contrib/seq2seq/attentionwrapper/...

2019-07-11 13:45:59 860

转载 (转)零基础入门--中文命名实体识别

这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Ma...

2019-06-24 09:57:55 544

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除