封面
版权信息
内容简介
前言
第1章 语言模型简介
1.1 传统语言模型
1.1.1 n-gram语言模型
1.1.2 神经网络语言模型
1.1.3 传统语言模型的应用
1.2 大语言模型
1.2.1 大模型的发展历程
1.2.2 训练大模型的挑战
1.2.3 大模型的应用
1.3 大模型实例
1.3.1 基座模型实例
1.3.2 对齐模型实例
1.4 小结
第2章 大模型网络结构
2.1 Seq2Seq结构
2.2 注意力机制
2.3 Transformer架构
- APP免费
2.3.1 Transformer模型结构
- APP免费
2.3.2 编码器单元
- APP免费
2.3.3 解码器单元
- APP免费
2.3.4 位置编码
- APP免费
2.4 词元化
- APP免费
2.4.1 BPE
- APP免费
2.4.2 字节级BPE
- APP免费
2.4.3 WordPiece
- APP免费
2.4.4 Unigram语言模型
- APP免费
2.4.5 SentencePiece
- APP免费
2.5 解码策略
- APP免费
2.5.1 贪心搜索
- APP免费
2.5.2 集束搜索
- APP免费
2.5.3 Top-k采样
- APP免费
2.5.4 核采样
- APP免费
2.5.5 温度采样
- APP免费
2.6 小结
- APP免费
第3章 大模型学习范式的演进
- APP免费
3.1 预训练与微调的原理和典型模型
- APP免费
3.1.1 预训练与微调
- APP免费
3.1.2 三个典型模型
- APP免费
3.2 多任务学习的原理和典型模型
- APP免费
3.2.1 多任务学习
- APP免费
3.2.2 两个典型模型
- APP免费
3.3 大规模模型的能力
- APP免费
3.3.1 少样本学习
- APP免费
3.3.2 提示学习
- APP免费
3.3.3 上下文学习
- APP免费
3.4 小结
- APP免费
第4章 大模型对齐训练
- APP免费
4.1 对齐
- APP免费
4.1.1 对齐的定义
- APP免费
4.1.2 对齐的衡量指标
- APP免费
4.2 基于人类反馈的强化学习
- APP免费
4.2.1 监督微调的原理
- APP免费
4.2.2 训练奖励模型的原理
- APP免费
4.2.3 强化学习的原理
- APP免费
4.3 基于AI反馈的强化学习
- APP免费
4.4 直接偏好优化
- APP免费
4.5 超级对齐
- APP免费
4.6 小结
- APP免费
第5章 大模型评测与数据集
- APP免费
5.1 大模型评测方法
- APP免费
5.1.1 人工评测
- APP免费
5.1.2 自动评测
- APP免费
5.2 大模型评测指标
- APP免费
5.2.1 准确率、精确率、召回率与F1分数
- APP免费
5.2.2 困惑度
- APP免费
5.2.3 BLEU与ROUGE
- APP免费
5.2.4 pass@k
- APP免费
5.3 大模型能力评测基准
- APP免费
5.3.1 MMLU
- APP免费
5.3.2 GSM8K
- APP免费
5.3.3 C-Eval
- APP免费
5.3.4 HumanEval
- APP免费
5.4 数据集及预处理方法
- APP免费
5.4.1 预训练数据集
- APP免费
5.4.2 指令微调数据集
- APP免费
5.4.3 人工反馈数据集
- APP免费
5.4.4 数据预处理方法
- APP免费
5.5 小结
- APP免费
第6章 分布式训练与内存优化
- APP免费
6.1 大模型扩展法则
- APP免费
6.2 分布式训练策略
- APP免费
6.2.1 数据并行
- APP免费
6.2.2 张量并行
- APP免费
6.2.3 流水线并行
- APP免费
6.2.4 混合并行
- APP免费
6.3 大模型训练中的不稳定现象
- APP免费
6.4 分布式训练集群架构
- APP免费
6.4.1 中心化架构:参数服务器
- APP免费
6.4.2 去中心化架构:集合通信
- APP免费
6.5 内存优化策略
- APP免费
6.5.1 混合精度训练
- APP免费
6.5.2 梯度检查点
- APP免费
6.5.3 梯度累积
- APP免费
6.5.4 FlashAttention
- APP免费
6.6 分布式训练框架
- APP免费
6.7 小结
- APP免费
第7章 大模型的垂直场景适配方案
- APP免费
7.1 从零开始训练新模型
- APP免费
7.2 全量参数微调
- APP免费
7.3 低参数量微调
- APP免费
7.3.1 适配器方法
- APP免费
7.3.2 提示词微调
- APP免费
7.3.3 前缀微调
- APP免费
7.3.4 LoRA
- APP免费
7.4 超低参数量微调的探索
- APP免费
7.5 小结
- APP免费
第8章 知识融合与工具使用
- APP免费
8.1 知识融合
- APP免费
8.1.1 检索增强生成
- APP免费
8.1.2 解码器融合
- APP免费
8.1.3 提示融合
- APP免费
8.2 工具使用
- APP免费
8.2.1 WebGPT
- APP免费
8.2.2 LaMDA
- APP免费
8.2.3 Toolformer
- APP免费
8.3 自主智能体
- APP免费
8.3.1 自主智能体的组件
- APP免费
8.3.2 自主智能体的工作流程
- APP免费
8.4 小结
- APP免费
第9章 大模型的进阶优化
- APP免费
9.1 模型小型化
- APP免费
9.1.1 模型量化
- APP免费
9.1.2 知识蒸馏
- APP免费
9.1.3 参数剪枝
- APP免费
9.2 推理能力及其延伸
- APP免费
9.2.1 思维链
- APP免费
9.2.2 零样本思维链
- APP免费
9.2.3 最少到最多提示
- APP免费
9.2.4 ReAct:推理能力+行动能力
- APP免费
9.3 代码生成
- APP免费
9.3.1 Codex
- APP免费
9.3.2 代码生成的要素
- APP免费
9.4 多模态大模型
- APP免费
9.4.1 BEiT-3
- APP免费
9.4.2 CLIP
- APP免费
9.4.3 Flamingo
- APP免费
9.4.4 MiniGPT-4
- APP免费
9.5 高质量数据的作用与构建
- APP免费
9.5.1 LIMA
- APP免费
9.5.2 教科书级数据
- APP免费
9.6 模型能力“涌现”的原因
- APP免费
9.7 小结
- APP免费
第10章 大模型的局限性与未来发展方向
- APP免费
10.1 大模型的局限性
- APP免费
10.1.1 事实性错误
- APP免费
10.1.2 理解和推理缺陷
- APP免费
10.1.3 知识更新问题
- APP免费
10.1.4 安全性问题
- APP免费
10.1.5 计算资源限制
- APP免费
10.2 大模型的未来发展方向
- APP免费
10.2.1 更强的记忆:从通用到个性化
- APP免费
10.2.2 装上“手脚”:赋予模型使用工具的能力
- APP免费
10.2.3 多模态交互:穿越文本的边界
- APP免费
10.3 小结
- APP免费
参考文献
- APP免费
作者简介
- APP免费
封底
更新时间:2024-12-18 17:07:10