自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 蒲语大模型微调系列(一)使用xtunner微调自己的大模型

final_model才是我们最终使用的模型,这一步便是提现QLaro技术,简单理解成我们额外增加了一块图,与原先的大模型知识图拼接在一起,这和全量微调不同,全量微调是不增加图的基础上去改原先的图。大体来说就是常见的比如数据集放哪里,使用什么设备训练,学习率多少,训练模型是什么,epoll训练轮数多少,优化器是什么等等,大部分不需要修改,简单修改下数据集路径,训练模型路径即可。后面就是微调一下医疗GPT,包括多模态,会更详细的介绍细节,包括硬件配置,数据集的准备和清洗,训练时长等这些我们开发者关心的问题。

2024-04-14 10:01:10 590

原创 第一节,浦语系列介绍

这次参加训练营主要在于学习如何在通用LLM的基础上微调和部署垂直领域的模型。通过第一节课的学习,了解了书生蒲语全链路开发框架,包括数据集准备,微调(Xtunnel),推理部署(XLMDeploy),评测工具(OpenComposs),了解了InternLLM-20B及智能体,商汤的AI还是一如既往的棒!InternLM技术报告大概从网上学习了一些,比如在训练的扩展性,SFT对齐上,上下文的长度,intern-20b效果和效率都有了很大改进,因为降低模型微调和部署的门槛是我们开发者最关心的问题。

2024-04-06 15:33:04 184

原创 第二节,浦语Intern2相关模型的部署

最近参加了浦语训练营第二期,使用开发机部署了多个模型。总的来说,和大部分的模型流程部署很类似,因为之前熟悉python和conda(当然不熟悉也只需要按照给出的命令行部署即可),所以按照说明部署,体验了一下浦语系列的模型,大部分部署使用基本都是一致的,先下载模型,比如可以先下载到本地,然后运行模型进行推理。模型文件通常是很大的,我们一般是从抱抱脸社区,魔搭社区去下载,其实都差不多,抱抱脸社区是国外的,可能需要科学上网,我们一般是从魔搭社区下载。浦语灵笔是浦语系列的多模型大模型,包含文生图和图文理解两部分。

2024-04-06 15:29:02 159

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除