名称:Llama3大模型原理代码精讲与部署微调评估实战
描述:《Llama3大模型原理代码精讲与部署微调评估实战》课程系统讲解Llama3大模型的核心原理、代码实现与实战应用,涵盖Transformer架构(注意力机制、位置编码、FFN)、Llama3特色技术(RMSNorm、SwiGLU、RoPE、GQA、KVCache),以及微调方法(全参微调、LoRA、QLoRA)。课程通过代码逐行解析(模型结构、生成策略、分词器)和实战演示(Ollama/vLLM部署、中文增强/医疗问答模型微调与评估),帮助学员深入理解大模型工作原理并掌握工业级部署与定制化开发技能。
链接:
百度:
知识宝库 - 支付
查看隐藏内容,需支付
5金币 !
夸克:
📁 大小:2.15 GB
🏷 标签:#Llama3 #Transformer #注意力机制 #RoPE位置编码 #GQA #KVCache #LoRA微调 #QLoRA #模型部署 #vLLM #Ollama #中文增强 #医疗问答 #模型评估 #代码精讲 #实战项目百度网盘 #quark
└─Llama3大模型原理代码精讲与部署微调评估实战
│ 1 课程介绍.mp4│ 10 Transformer机器翻译工作流程_ev.mp4│ 11 Transformer的Encoder代码解读.mp4│ 12 Transformer的Decoder代码解读.mp4│ 13 Transformer的超参设置代码解读.mp4│ 14 Transformer的训练示例(人为随机数据)代码解读.mp4│ 15 Transformer的训练示例(德语-英语机器翻译)代码解.mp4│ 16 结合中文注释代码深入解读1.mp4│ 17 结合中文注释代码深入解读2.mp4│ 18 LLM推理方式.mp4│ 19 文本生成模式.mp4│ 2 注意力机制_ev.mp4│ 20 文本生成策略.mp4│ 21 Token和分词器.mp4│ 22 文本生成过程.mp4│ 23 prefill和解码阶段_ev.mp4│ 24 llama3文本生成过程_ev.mp4│ 25 文本生成时的QKV含义.mp4│ 26 大模型开发阶段划分.mp4│ 27 SFT微调.mp4│ 28 微调方法(全参、冻结参数、LoRA、QLoRA).mp4│ 29 LoRA微调.mp4│ 3 自注意力机制.mp4│ 30 QLoRA微调.mp4│ 31 llama模型进化史.mp4│ 32 llama3模型类型_ev.mp4│ 33 llama大模型生态.mp4│ 34 llama3模型架构_ev.mp4│ 35 RMSNorm归一化_ev.mp4│ 36 SwiGLU激活函数.mp4│ 37 RoPE旋转位置编码.mp4│ 38 GQA分组查询注意力_ev.mp4│ 39 KVCache.mp4│ 4 Transformer的架构概述_ev.mp4│ 40 各文件功能_ev.mp4│ 41 completion和chat应用脚本代码解析.mp4│ 42 generation.py代码解析.mp4│ 43 model.py代码解析.mp4│ 44 tokenizer.py代码解析.mp4│ 45 RMSNorm代码解析.mp4│ 46 SwiGLU代码解析.mp4│ 47 GQA代码解析.mp4│ 48 RoPE代码解析.mp4│ 49 KVCache代码解析_ev.mp4│ 5 Transformer Encoder的多头注意力.mp4│ 50 阿里云实例创建_ev.mp4│ 51 ollama介绍.mp4│ 52 ollama安装.mp4│ 53 llama3推理.mp4│ 54 vLLM部署llama3.mp4│ 55 llama_factory介绍.mp4│ 56 llama_factory安装及llama3模型下载.mp4│ 57 LoRA微调训练.mp4│ 58 llama3中文增强大模型推理_ev.mp4│ 59 llama3中文增强大模型评估.mp4│ 6 Transformer Encoder的位置编码.mp4│ 60 lora文件合并.mp4│ 61 数据集准备_ev.mp4│ 62 lora 微调.mp4│ 63 llama3医疗问答大模型推理_ev.mp4│ 64 qlora微调 _ev.mp4│ 65 qlora微调的医疗问答大模型推理.mp4│ 7 Transformer 残差链接、LayerNorm、FFN.mp4│ 8 Transformer Decoder.mp4│ 9 Transformer 训练及性能.mp4│└─Llama3大模型原理代码精讲与部署微调评估实战 Llama3大模型原理代码精讲与部署微调评估实战.zip