试看链接:https://pan.baidu.com/s/1z0VVjqMp-Je08Kh64rbBew?pwd=tgxv
相关推荐:
AI大模型企业应用实战
知乎AI大模型全栈工程师3期
2024最新贪心科技-大模型开发应用实战营
AI人人必修-提示词工程+大模型多场景实战(丰富资料)超清完结
课程目录:
. ├── 第1章 课程介绍/ │ ├── [18:25] 1-1 课程导学 │ ├── [09:13] 1-2 课程安排和学习建议 │ ├── [21:22] 1-3 ChatGPT对行业社会的影响 │ ├── [09:53] 1-4 ChatGPT发展简史 │ └── [03:03] 1-5 为什么使用GPT2而非GPT3 │ ├── 第2章 训练模型与开发平台环境/ │ ├── [04:06] 2-1 Paddle框架引入必要性 │ ├── [07:14] 2-2 深度学习框架对比 │ ├── [03:23] 2-3 PaddleNLP与HuggingFace │ ├── [07:53] 2-4 AI Studio平台介绍 │ └── [06:51] 2-5 GPT4 IDE工具Cursor │ ├── 第3章 词向量原理与实战/ │ ├── [05:22] 3-1 词向量与GPT关系 │ ├── [13:28] 3-2 语言模型与PPL指标 │ ├── [08:15] 3-3 Word2Vec模型原理 │ ├── [14:46] 3-4 Softmax树型优化 │ ├── [13:49] 3-5 负采样优化 │ ├── [43:42] 3-6~7 Word2Vec实战 │ ├── [29:50] 3-8~9 模型开发训练 │ ├── [15:29] 3-10 激活函数对比 │ ├── [25:49] 3-11 预训练模型演进 │ └── [05:06] 3-12 本章小结 │ ├── 第4章 Transformer架构精讲/ │ ├── [01:32] 4-1 本章介绍 │ ├── [15:23] 4-2 Seq2Seq与注意力 │ ├── [07:37] 4-3 Seq2Seq案例 │ ├── [23:07] 4-4 多头注意力 │ ├── [15:24] 4-5~6 残差连接与LayerNorm │ ├── [09:11] 4-7 Decoder解析 │ ├── [24:44] 4-8~10 稀疏模型与长序列优化 │ └── [04:52] 4-11 本章总结 │ ├── 第5章 BERT系列实战/ │ ├── [01:14] 5-1 本章介绍 │ ├── [22:49] 5-2 NLP评估指标 │ ├── [13:38] 5-3~4 Subword算法与NLP任务 │ ├── [25:29] 5-5 BERT预训练模型 │ ├── [36:10] 5-6~7 情感分析实战 │ ├── [10:49] 5-8 预测方法 │ ├── [42:04] 5-9~11 BERT源码解析 │ ├── [21:02] 5-12~13 文心一言模型 │ ├── [29:09] 5-14~15 Plato对话模型 │ └── [07:51] 5-16 本章总结 │ ├── 第6章 强化学习核心/ │ ├── [14:11] 6-1 RL基础认知 │ ├── [02:53] 6-2 本章介绍 │ ├── [23:46] 6-3~4 马尔可夫过程 │ ├── [22:47] 6-5~6 三类方法 │ ├── [30:07] 6-7~8 DQN改进算法 │ ├── [33:08] 6-9~10 Actor-Critic │ ├── [41:51] 6-11~12 PPO算法 │ ├── [51:21] 6-13~15 DQN实战 │ ├── [43:21] 6-16~17 策略梯度实战 │ └── [10:24] 6-18 本章总结 │ ├── 第7章 GPT技术演进/ │ ├── [14:46] 7-1 GPT1模型 │ ├── [14:00] 7-2 GPT2模型 │ ├── [28:01] 7-3~4 GPT3模型 │ ├── [12:58] 7-5 GPT-Codex │ ├── [26:10] 7-6~7 AlphaCode │ ├── [30:27] 7-8~9 InstructGPT │ ├── [24:41] 7-10 Antropic模型 │ └── [07:21] 7-11 本章总结 │ ├── 第8章 RLHF实战/ │ ├── [08:52] 8-1 实战概览 │ ├── [40:25] 8-2~4 SFT监督训练 │ ├── [45:53] 8-5~8 RM奖励模型 │ ├── [36:30] 8-9~11 RLHF模型构建 │ ├── [33:15] 8-12~13 生成模块 │ ├── [32:32] 8-14~15 经验生成 │ ├── [46:26] 8-16~17 缓冲与损失 │ ├── [22:03] 8-18 Trainer实现 │ └── [19:30] 8-19 主流程 │ ├── 第9章 PEFT微调/ │ ├── [23:14] 9-1 BitFit方法 │ ├── [21:47] 9-2~3 Prefix/Prompt调优 │ ├── [20:14] 9-4~5 P-tuning演进 │ ├── [05:13] 9-6 LoRA原理 │ ├── [28:37] 9-7~8 Prompt实战 │ ├── [33:23] 9-9~10 Prefix实战 │ ├── [50:31] 9-11~13 LoRA实战 │ ├── [45:16] 9-14~15 ChatGLM2微调 │ └── [15:05] 9-16 本章总结 │ ├── 第10章 LangChain应用/ │ ├── [12:43] 10-1 LangChain基础 │ ├── [25:31] 10-2 初探实战 │ ├── [14:59] 10-3 MiniQA实现 │ ├── [13:11] 10-4 工业场景设计 │ └── [08:30] 10-5 本章总结 │ └── 第11章 课程总结/ ├── [17:48] 11-1 总结(上) └── [15:01] 11-2 总结(下) └── 本课程已完结
声明:本站所有资料均来源于网络以及用户发布,如对资源有争议请联系微信客服我们可以安排下架!