课程简介:
大模型微调是当前领域落地的一个标准范式,涉及基础模型的选择、微调训练加速以及长文本、多模态等多个环节。因此,熟悉这些技术细节,对于我们更好地完成相关落地具有十分重要的意义。
本课程主要介绍领域微调实现范式、模型选型以及金融、法律、医疗、教育等行业的开源案例,总结长文本、Moe 模型技术要点。
课程目录:
├──01|为什么要做领域模型?_ev.mp4 19.18M
├──02|ChatGPT训练回顾及领域模型微调范式_ev.mp4 27.71M
├──03|领域微调基础模型选择LLaMA、GLM、BLoom及其对比_ev.mp4 36.87M
├──04|领域微调微调加速prompttuningLoRAadapter_ev.mp4 11.85M
├──05|金融领域微调模型项目解读:FinGPT、Cornucopia-LLaMA-Fin-Chinese等_ev.mp4 47.41M
├──06|法律领域微调模型项目解读:LawGPT_zh、LawyerLLaMA等_ev.mp4 80.33M
├──07|医疗领域微调模型项目解读:ChatDoctor、Huatuo等_ev.mp4 56.27M
├──08|教育领域微调模型项目解读:Taoli、MediaLLaMA等_ev.mp4 12.99M
├──09|多步骤微调、扩充LLAma词表、遗忘问题、幻觉问题的一些思考_ev.mp4 54.47M
├──10|大模型长文本技术实现思路及代表案例_ev.mp4 43.70M
├──11|大模型长文本技术主流评测_ev.mp4 7.15M
├──12|嫁接模型SOLAR及Moe模型基本理解_ev.mp4 36.98M
├──13|Moe模型的优缺点_ev.mp4 17.67M
└──14|现有开源的代表Moe模型项目_ev.mp4 11.91M
常见问题FAQ
- 视频课程的格式是什么
- 视频不加密,网盘在线学习,课程免费更新,持续更新
- 怎么发货?
- 有些资源没更新完结怎么办
- 有问题不懂想咨询怎么办