试看链接:https://pan.baidu.com/s/1z0VVjqMp-Je08Kh64rbBew?pwd=tgxv 

相关推荐:

AI大模型企业应用实战

知乎AI大模型全栈工程师3期

2024最新贪心科技-大模型开发应用实战营

AI人人必修-提示词工程+大模型多场景实战(丰富资料)超清完结

课程目录:

.
├── 第1章 课程介绍/
│   ├── [18:25] 1-1 课程导学
│   ├── [09:13] 1-2 课程安排和学习建议  
│   ├── [21:22] 1-3 ChatGPT对行业社会的影响
│   ├── [09:53] 1-4 ChatGPT发展简史
│   └── [03:03] 1-5 为什么使用GPT2而非GPT3
│
├── 第2章 训练模型与开发平台环境/
│   ├── [04:06] 2-1 Paddle框架引入必要性
│   ├── [07:14] 2-2 深度学习框架对比
│   ├── [03:23] 2-3 PaddleNLP与HuggingFace  
│   ├── [07:53] 2-4 AI Studio平台介绍
│   └── [06:51] 2-5 GPT4 IDE工具Cursor
│
├── 第3章 词向量原理与实战/
│   ├── [05:22] 3-1 词向量与GPT关系
│   ├── [13:28] 3-2 语言模型与PPL指标
│   ├── [08:15] 3-3 Word2Vec模型原理
│   ├── [14:46] 3-4 Softmax树型优化
│   ├── [13:49] 3-5 负采样优化
│   ├── [43:42] 3-6~7 Word2Vec实战
│   ├── [29:50] 3-8~9 模型开发训练
│   ├── [15:29] 3-10 激活函数对比
│   ├── [25:49] 3-11 预训练模型演进
│   └── [05:06] 3-12 本章小结
│
├── 第4章 Transformer架构精讲/
│   ├── [01:32] 4-1 本章介绍
│   ├── [15:23] 4-2 Seq2Seq与注意力
│   ├── [07:37] 4-3 Seq2Seq案例
│   ├── [23:07] 4-4 多头注意力
│   ├── [15:24] 4-5~6 残差连接与LayerNorm
│   ├── [09:11] 4-7 Decoder解析
│   ├── [24:44] 4-8~10 稀疏模型与长序列优化
│   └── [04:52] 4-11 本章总结
│
├── 第5章 BERT系列实战/
│   ├── [01:14] 5-1 本章介绍
│   ├── [22:49] 5-2 NLP评估指标
│   ├── [13:38] 5-3~4 Subword算法与NLP任务
│   ├── [25:29] 5-5 BERT预训练模型
│   ├── [36:10] 5-6~7 情感分析实战
│   ├── [10:49] 5-8 预测方法
│   ├── [42:04] 5-9~11 BERT源码解析
│   ├── [21:02] 5-12~13 文心一言模型
│   ├── [29:09] 5-14~15 Plato对话模型
│   └── [07:51] 5-16 本章总结
│
├── 第6章 强化学习核心/
│   ├── [14:11] 6-1 RL基础认知
│   ├── [02:53] 6-2 本章介绍
│   ├── [23:46] 6-3~4 马尔可夫过程
│   ├── [22:47] 6-5~6 三类方法
│   ├── [30:07] 6-7~8 DQN改进算法
│   ├── [33:08] 6-9~10 Actor-Critic
│   ├── [41:51] 6-11~12 PPO算法
│   ├── [51:21] 6-13~15 DQN实战
│   ├── [43:21] 6-16~17 策略梯度实战
│   └── [10:24] 6-18 本章总结
│
├── 第7章 GPT技术演进/
│   ├── [14:46] 7-1 GPT1模型
│   ├── [14:00] 7-2 GPT2模型
│   ├── [28:01] 7-3~4 GPT3模型
│   ├── [12:58] 7-5 GPT-Codex
│   ├── [26:10] 7-6~7 AlphaCode
│   ├── [30:27] 7-8~9 InstructGPT
│   ├── [24:41] 7-10 Antropic模型
│   └── [07:21] 7-11 本章总结
│
├── 第8章 RLHF实战/
│   ├── [08:52] 8-1 实战概览
│   ├── [40:25] 8-2~4 SFT监督训练
│   ├── [45:53] 8-5~8 RM奖励模型
│   ├── [36:30] 8-9~11 RLHF模型构建
│   ├── [33:15] 8-12~13 生成模块
│   ├── [32:32] 8-14~15 经验生成
│   ├── [46:26] 8-16~17 缓冲与损失
│   ├── [22:03] 8-18 Trainer实现
│   └── [19:30] 8-19 主流程
│
├── 第9章 PEFT微调/
│   ├── [23:14] 9-1 BitFit方法
│   ├── [21:47] 9-2~3 Prefix/Prompt调优
│   ├── [20:14] 9-4~5 P-tuning演进
│   ├── [05:13] 9-6 LoRA原理
│   ├── [28:37] 9-7~8 Prompt实战
│   ├── [33:23] 9-9~10 Prefix实战
│   ├── [50:31] 9-11~13 LoRA实战
│   ├── [45:16] 9-14~15 ChatGLM2微调
│   └── [15:05] 9-16 本章总结
│
├── 第10章 LangChain应用/
│   ├── [12:43] 10-1 LangChain基础
│   ├── [25:31] 10-2 初探实战
│   ├── [14:59] 10-3 MiniQA实现
│   ├── [13:11] 10-4 工业场景设计
│   └── [08:30] 10-5 本章总结
│
└── 第11章 课程总结/
    ├── [17:48] 11-1 总结(上)
    └── [15:01] 11-2 总结(下)
└── 本课程已完结