自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 收藏
  • 关注

原创 自用代码(将bert结合部首信息)

2. CNNRadicalLevelEmbedding.py文件中,修改CNNRadicalLevelEmbedding类,修改其中的forward方法,使其接收bert的输出向量作为输入,并与部首向量进行拼接。3. model.py文件中,修改BiLSTM_CRF类,使其接收拼接后的向量作为输入,并进行后续的BiLSTM和CRF操作。好的,我可以尝试给您一些示例代码,但是请注意,这些代码可能不完全适合您的情况,您可能需要根据自己的数据和模型进行修改和调试。

2023-05-01 07:34:21 124 3

原创 一个封装好的bert方法代码

在上面的代码中,我们首先定义了一个BertModelWrapper类,用于加载预训练的BERT模型并将其封装在PyTorch的模块中。然后,我们使用这个类来加载BERT模型并对输入文本进行编码,最后得到一个表示输入文本的张量。以下是一个封装了BERT模型的示例代码,其中使用了Hugging Face的Transformers库。这个代码片段可以用来加载预训练的BERT模型,以便用于文本分类、序列标注等任务。# 加载预训练的BERT模型。# 通过BERT模型进行编码。# 对输入文本进行编码。

2023-04-14 21:21:40 111 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除