今天给大家介绍一本重量级大模型书籍 《自然语言处理:原理、方法与应用》
《自然语言处理:原理、方法与应用》 是由王志立、雷鹏斌、吴宇凡合著的一本专业书籍,于2023年3月由清华大学出版社出版。这本书系统地阐述了自然语言处理(NLP)的基础知识和高级模型应用。
这大模型书籍学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
全书共分为11章,内容安排如下:
第1至第5章 主要介绍自然语言处理的基础知识,包括NLP的基本概念、发展历程、算法流程等。
第6至第11章 则将自然语言处理知识应用于实战,涵盖了预训练模型、文本分类、机器阅读理解、命名实体识别、文本生成、模型蒸馏与剪枝及损失函数等多个方面。
书中包含大量应用示例,旨在帮助读者不仅掌握理论知识,还能灵活应用于实际。所有示例均基于Linux与PyTorch环境开发,因此读者在学习自然语言处理的同时,还能学习到PyTorch框架技术。内容完整、步骤清晰,提供了工程化的解决方案。
这本书适合有一定深度学习基础的读者作为入门书籍,也适合从事自然语言处理算法工作的技术人员及培训机构作为参考书。
目 录
前言
第1章 导论
1.1 基于深度学习的自然语言处理
1.2 本书章节脉络
1.3 自然语言处理算法流程
1.4 小结
第2章 Python开发环境配置
2.1 Linux服务器
2.1.1 MobaXterm
2.1.2 使用MobaXterm连接远程服务器
2.1.3 在服务器上安装Python开发环境
2.1.4 使用Anaconda国内源
2.1.5 pip设定永久阿里云源
2.2 Python虚拟环境
2.3 PyCharm远程连接服务器
2.4 screen任务管理
2.5 Docker技术
2.6 小结
第3章 自然语言处理的发展进程
3.1 人工规则与自然语言处理
3.2 机器学习与自热语言处理
3.2.1 词袋模型
3.2.2 n-gram
3.2.3 频率与逆文档频率
3.3 深度学习与自然语言处理
3.4 小结
第4章 无监督学习的原理与应用
4.1 浅层无监督预训练模型
4.2 深层无监督预训练模型
4.2.1 BERT
4.2.2 Self-Attention Layer原理
4.2.3 Self-Attention Layer的内部运算逻辑
4.2.4 Multi-Head Self-Attention
4.2.5 Layer Normalization
4.2.6 BERT预训练
4.2.7 BERT的微调过程
4.3 其他预训练模型
4.3.1 RoBERTa
4.3.2 ERNIE
4.3.3 BERT_WWM
4.3.4 ALBERT
4.3.5 Electra
4.3.6 NEZHA
4.3.7 NLP预训练模型对比
4.4 自然语言处理四大下游任务
4.4.1 句子对分类任务
4.4.2 单句子分类任务
4.4.3 问答任务
4.4.4 单句子标注任务
4.5 小结
第5章 无监督学习进阶
5.1 生成式对抗网络
5.2 元学习
5.2.1 Metric-Based Method
5.2.2 Model-Based Method
5.2.3 Pretrain-Based Method
5.3 小结
第6章 预训练
6.1 赛题任务
6.2 环境搭建
6.3 代码框架
6.4 数据分析实践
6.4.1 数据预处理
6.4.2 预训练任务模型构建与数据生成
6.4.3 模型训练
6.5 小结
第7章 文本分类
7.1 数据分析
7.2 环境搭建
7.3 代码框架
7.4 文本分类实践
7.4.1 数据预处理
7.4.2 模型构建
7.4.3 数据迭代器
7.4.4 模型训练
7.4.5 模型预测
7.5 小结
第8章 机器阅读理解
8.1 机器阅读理解的定义
8.1.1 完形填空
8.1.2 多项选择
8.1.3 片段抽取
8.1.4 自由回答
8.1.5 其他任务
8.2 评测方法
8.3 研究方法
8.3.1 基于规则的方法
8.3.2 基于神经网络的方法
8.3.3 基于深层语义的图匹配方法
8.4 经典结构
8.4.1 BiDAF模型
8.4.2 QANet模型
8.4.3 基于BERT模型的机器阅读理解
8.5 多文档机器阅读理解实践
8.5.1 疫情政务问答助手
8.5.2 信息检索
8.5.3 多任务学习
8.5.4 实践
8.6 小结
第9章 命名实体识别
9.1 NER技术的发展现状
9.2 命名实体识别的定义
9.3 命名实体识别模型
9.3.1 预训练模型
9.3.2 下接结构
9.3.3 条件随机场
9.4 命名实体识别实验
9.4.1 数据介绍
9.4.2 评估指标
9.4.3 数据预处理
9.4.4 模型构建
9.4.5 数据迭代器
9.4.6 模型训练
9.4.7 模型预测
9.5 小结
第10章 文本生成
10.1 文本生成的发展现状
10.1.1 文本生成模板
10.1.2 变分自编码器
10.1.3 序列到序列技术
10.2 基于预训练模型的文本生成模型
10.3 文本生成任务实践
10.3.1 数据介绍
10.3.2 评估指标
10.3.3 模型构建
10.3.4 数据迭代器
10.3.5 模型训练
10.3.6 模型预测
10.4 小结
第11章 损失函数与模型瘦身
11.1 损失函数
11.2 常用的损失函数
11.2.1 回归
11.2.2 分类
11.3 损失函数的进阶
11.3.1 样本不均衡
11.3.2 Focal Loss
11.3.3 Dice Loss
11.3.4 拒识
11.3.5 带噪学习
11.4 模型瘦身
11.4.1 知识蒸馏
11.4.2 模型剪枝
11.5 小结
这大模型书籍学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】