登录后体验更多功能
51CTO-Llama3大模型原理代码精讲与部署微调评估实战 ├── 课件资料 ├── 1 课程介绍.mp4 ├── 2 注意力机制.mp4 ├── 3 自注意力机制.mp4 ├── 4 Transformer的架构概述.mp4 ├── 5 Transformer Encoder的多头注意力.mp4 ├── 6 Transformer Encoder的位置编码.mp4 ├── 7 Transformer 残差链接、LayerNorm、FFN.mp4 ├── 8 Transformer Decoder.mp4 ├── 9 Transformer 训练及性能.mp4 ├── 10 Transformer机器翻译工作流程.mp4 ├── 11 Transformer的Encoder代码解读.mp4 ├── 12 Transformer的Decoder代码解读.mp4 ├── 13 Transformer的超参设置代码解读.mp4 ├── 14 Transformer的训练示例(人为随机数据)代码解读.mp4 ├── 15 Transformer的训练示例(德语-英语机器翻译)代码解.mp4 ├── 16 结合中文注释代码深入解读1.mp4 ├── 17 结合中文注释代码深入解读2.mp4 ├── 18 LLM推理方式.mp4 ├── 19 文本生成模式.mp4 ├── 20 文本生成策略.mp4 ├── 21 Token和分词器.mp4 ├── 22 文本生成过程.mp4 ├── 23 prefill和解码阶段.mp4 ├── 24 llama3文本生成过程.mp4 ├── 25 文本生成时的QKV含义.mp4 ├── 26 大模型开发阶段划分.mp4 ├── 27 SFT微调.mp4 ├── 28 微调方法(全参、冻结参数、LoRA、QLoRA).mp4 ├── 29 LoRA微调.mp4 ├── 30 QLoRA微调.mp4 ├── 31 llama模型进化史.mp4 ├── 32 llama3模型类型.mp4 ├── 33 llama大模型生态.mp4 ├── 34 llama3模型架构.mp4 ├── 35 RMSNorm归一化.mp4 ├── 36 SwiGLU激活函数.mp4 ├── 37 RoPE旋转位置编码.mp4 ├── 38 GQA分组查询注意力.mp4 ├── 39 KVCache.mp4 ├── 40 各文件功能.mp4 ├── 41 completion和chat应用脚本代码解析.mp4 ├── 42 generation.py代码解析.mp4 ├── 43 model.py代码解析.mp4 ├── 44 tokenizer.py代码解析.mp4 ├── 45 RMSNorm代码解析.mp4 ├── 46 SwiGLU代码解析.mp4 ├── 47 GQA代码解析.mp4 ├── 48 RoPE代码解析.mp4 ├── 49 KVCache代码解析.mp4 ├── 50 阿里云实例创建.mp4 ├── 51 ollama介绍.mp4 ├── 52 ollama安装.mp4 ├── 53 llama3推理.mp4 ├── 54 vLLM部署llama3.mp4 ├── 55 llama_factory介绍.mp4 ├── 56 llama_factory安装及llama3模型下载.mp4 ├── 57 LoRA微调训练.mp4 ├── 58 llama3中文增强大模型推理.mp4 ├── 59 llama3中文增强大模型评估.mp4 ├── 60 lora文件合并.mp4 ├── 61 数据集准备.mp4 ├── 62 lora 微调.mp4 ├── 63 llama3医疗问答大模型推理.mp4 ├── 64 qlora微调 .mp4 └── 65 qlora微调的医疗问答大模型推理.mp4
链接失效请留言,看到会补
请先登录后发表评论!
不错的帖子!
太棒了,点赞