| ISBN/价格: | 978-7-121-50057-2:CNY138.00 |
|---|---|
| 作品语种: | chi |
| 出版国别: | CN 110000 |
| 题名责任者项: | 大规模语言模型/.张奇[等]著 |
| 版本项: | 2版 |
| 出版发行项: | 北京:,电子工业出版社:,2025.08 |
| 载体形态项: | 18,454页:;+图:;+24cm |
| 丛编项: | 通用智能与大模型丛书 |
| 提要文摘: | 本书围绕大语言模型构建的四个阶段:预训练、指令微调、奖励建模和强化学习,详述各阶段所使用的算法、数据、难点及实践经验。在此基础上,进一步探讨了增强大语言模型能力、提升效率及如何将大语言模型落地应用的实践经验,涵盖多模态、智能体等热门方向,展现了大语言模型研究的最新进展。 |
| 题名主题: | 自然语言处理 |
| 中图分类: | TP391 |
| 个人名称等同: | 张奇 著 |
| 记录来源: | CN LCTBU 20251009 |