作者: | Jay Alammar and Maarten Grootendorst |
语言: | 英文 |
出版年份: | 2024 |
其他分类: | 人工智能 |
下载链接: |
书籍均收集自互联网,仅供学习和研究使用,请莫用于商业用途。谢谢合作。 |
本书《Hands-On Large Language Models》由Jay Alammar和Maarten Grootendorst撰写,是一本关于大型语言模型(LLMs)的全面指南。全书分为三部分,旨在帮助读者深入理解LLMs的工作原理,并掌握其在各种实际应用中的使用方法。
第一部分介绍了语言模型的基础知识,包括从早期的词袋模型到现代的Transformer架构。作者详细解释了Transformer模型的工作原理,包括自注意力机制和编码器-解码器结构。此外,还探讨了预训练语言模型(如BERT和GPT)的训练方法和应用场景。
第二部分聚焦于如何使用预训练的语言模型进行实际应用。作者通过多个实例,展示了如何利用这些模型进行文本分类、聚类、主题建模、文本生成等任务。具体包括:
第三部分深入探讨了如何训练和微调语言模型。作者介绍了从创建文本嵌入模型到微调生成模型的完整流程。具体包括:
《Hands-On Large Language Models》是一本全面且实用的指南,适合希望深入理解并应用大型语言模型的读者。书中不仅提供了丰富的理论知识,还通过大量实例和代码示例,帮助读者快速上手并掌握LLMs的实际应用。无论是初学者还是经验丰富的研究者,都能从本书中获得宝贵的见解和实用技巧。