机读格式显示(MARC)
- 000 01573nam0 2200241 450
- 010 __ |a 978-7-115-64440-4 |d CNY49.80
- 092 __ |a CN |b 人天1141-3621
- 100 __ |a 20240828d2024 em y0chiy50 ea
- 200 1_ |a MindSpore大语言模型实战 |b 专著 |f 陈雷编著
- 210 __ |a 北京 |c 人民邮电出版社 |d 2024.01
- 330 __ |a 本书通过深入的实践和以MindSpore为实现框架的引导,全面剖析当前大模型的基础原理,涵盖诸如Transformer、预训练与微调等关键概念,协助读者深入了解大模型的实现路径和关键技术,使读者能够迅速、熟练地将大模型应用于实际项目中。在当今AI领域,随着如ChatGPT等大模型的迅猛发展,大模型已经成为AI领域发展的快车道,不同领域涌现出各种强大的大模型。对于开发者来说,除了惊叹于大模型展示出的强大能力,更为关键的是理解大模型的实现框架和基础原理,并能够独立构建、部署符合自身需求的大模型。本书首先详细讲解Transformer的基本原理、架构及实现方法;然后介绍由Encoder-Only到Decoder-Only的技术路线发展过程中对应的BERT、GPT等大模型;接下来介绍大模型在部署、训练、调优过程中涉及的各种关键的技术,如自动并行、预训练与微调、RLHF等,并提供相应的实践指导;最后以开源大模型BLOOM、LLaMA为样例介绍整个架构和实现过程,帮助读者理解并构建、部署自己的大模型。
- 333 __ |a 本书适合人工智能、智能科学与技术、计算机科学与技术、电子信息工程、自动化等专业的本科生和研究生阅读,同时也为从事大模型相关工作的软件开发工程师和科研人员提供翔实的参考资料
- 801 _0 |a CN |b 人天书店 |c 20240829