Back to top

MindSpore大语言模型实战

MindSpore大语言模型实战

TP391/7410
MindSpore计算与应用丛书
陈雷编著
北京 人民邮电出版社 2024
978-7-115-64440-4
161页 26cm
自然语言处理
5
中文图书
MindSpore计算与应用丛书
工信知识赋能工程
本书通过深入的实践和以MindSpore为实现框架的引导,全面剖析当前大模型的基础原理,涵盖诸如Transformer、预训练与微调等关键概念,协助读者深入了解大模型的实现路径和关键技术,使读者能够迅速、熟练地将大模型应用于实际项目中。在当今AI领域,随着如ChatGPT等大模型的迅猛发展,大模型已经成为AI领域发展的快车道,不同领域涌现出各种强大的大模型。对于开发者来说,除了惊叹于大模型展示出的强大能力,更为关键的是理解大模型的实现框架和基础原理,并能够独立构建、部署符合自身需求的大模型。本书首先详细讲解Transformer的基本原理、架构及实现方法;然后介绍由Encoder-Only到Decoder-Only的技术路线发展过程中对应的BERT、GPT等大模型;接下来介绍大模型在部署、训练、调优过程中涉及的各种关键的技术,如自动并行、预训练与微调、RLHF等,并提供相应的实践指导;最后以开源大模型BLOOM、LLaMA为样例介绍整个架构和实现过程,帮助读者理解并构建、部署自己的大模型。
1
1
陈雷编著. MindSpore大语言模型实战[M]. 北京 人民邮电出版社 2024. 点此复制

馆藏地址

条形码目前状态卷册号馆藏地址架位信息
H411953在馆徐汇中文书库书库3楼 24排5列2层