机读格式显示(MARC)
- 000 01149nam0 2200241 450
- 010 __ |a 978-7-115-65056-6 |d CNY69.8
- 100 __ |a 20250403d2025 em y0chiy50 ea
- 200 1_ |a 预训练语言模型 |A yu xun lian yu yan mo xing |e 方法、实践与应用 |f 徐双双编著
- 210 __ |a 北京 |c 人民邮电出版社 |d 2025.02
- 215 __ |a 216页 |c 图 |d 26cm
- 330 __ |a 本书内容分为基础知识、预训练语言模型,以及实践与应用3个部分,共9章。第一部分全面、系统地介绍自然语言处理、神经网络和预训练语言模型的相关知识。第二部分介绍几种具有代表性的预训练语言模型的原理和机制(涉及注意力机制和Transformer模型),包括BERT及其变种,以及近年来发展迅猛的GPT和提示工程。第三部分介绍了基于LangChain和ChatGLM-6B的知识库问答系统、基于大型语言模型的自然语言处理任务应用研究和大模型训练实战等具体应用。
- 333 __ |a 本书适合计算机相关专业的学生,以及其他对预训练语言模型感兴趣的读者阅读
- 606 0_ |a 自然语言处理 |A zi ran yu yan chu li
- 701 _0 |a 徐双双 |A xu shuang shuang |4 编著
- 801 _0 |a CN |b 江苏新华 |c 20250331
- 905 __ |a WXCSXY |d TP391/940