JK-AI大模型微调训练营第5期资源网盘下载,本课程分为四阶技术:提示工程、AI智能体、大模型微调和预训练技术。课程内容从大模型技术发展史、Transformer架构、GPT系列模型等基础知识入手,逐步深入讲解高效微调技术(如LoRA、QLoRA)、量化技术(如GPTQ、AWQ)、分布式训练框架(如DeepSpeed)以及国产化实战(如华为Ascend 910微调ChatGLM-6B)。通过实战案例(如Whisper语音识别、ChatGLM3微调)和工具库(如Hugging Face Transformers、PEFT),学员将掌握大模型开发、微调、部署的全流程技能。
课程亮点
1. 全面覆盖大模型技术
本课程不仅涵盖了大模型技术的发展史,还深入讲解了Transformer架构和GPT系列模型等基础知识。学员将从零开始,逐步建立起对大模型技术的全面理解。
2. 高效微调技术
课程详细介绍了多种高效的微调技术,如LoRA和QLoRA。这些技术可以帮助学员在有限的计算资源下,实现大模型的高效微调,从而在实际应用中取得更好的效果。
3. 量化技术
量化技术是提高模型推理效率的重要手段。课程讲解了GPTQ和AWQ等量化技术,帮助学员在保持模型性能的同时,大幅降低模型的内存和计算开销。
4. 分布式训练框架
为了应对大规模数据和模型的训练需求,课程介绍了DeepSpeed等分布式训练框架。通过这些框架,学员可以实现高效、稳定的分布式训练,大幅缩短训练时间。
5. 国产化实战
课程特别关注国产化实战,通过华为Ascend 910微调ChatGLM-6B等实战案例,帮助学员掌握国产化大模型的开发和部署技术。
6. 实战案例和工具库
课程通过Whisper语音识别、ChatGLM3微调等实战案例,让学员在实际操作中巩固所学知识。同时,课程还介绍了Hugging Face Transformers和PEFT等工具库,帮助学员快速上手大模型开发。
适合人群
- AI开发者和工程师
- 数据科学家
- 研究生和博士生
- 对大模型技术感兴趣的自学者
评论 (0)