《大模型应用开发极简入门》升级版:快速上手GPT-4、RAG、Agent与DeepSeek应用开发

《大模型应用开发极简入门》第二版重磅升级,快速掌握GPT-4、RAG、Agent,新增DeepSeek案例!

原文标题:热销 2 万册!大模型应用开发入门书全新升级

原文作者:图灵编辑部

冷月清谈:

《大模型应用开发极简入门》推出第二版,该书旨在帮助开发者快速掌握大模型应用开发的核心技能。新版图书不仅涵盖了GPT-4的最新更新、API应用解析,还包括RAG、Agent等热门技术,并加入了DeepSeek应用开发案例。本书强调掌握LLM应用开发的核心范式,即提示工程、微调和RAG,并详细解析GPT-4的核心机制。通过六大案例,读者可以快速上手新闻生成、视频摘要、游戏助手、个人助理、文档组织和情感分析等应用,并提供了丰富的Python代码示例和开源代码库。本书适合希望将LLM能力嵌入现有系统的Python全栈开发者、希望用AI改造业务场景的创业者,以及渴望进阶为AI应用架构师的开发者。

怜星夜思:

1、书中提到了提示工程、微调和RAG是LLM开发的三大范式,但实际应用中,这三种方法应该如何选择和组合才能达到最佳效果?有没有一些具体的案例可以分享?
2、书中提到了 DeepSeek 应用开发案例,那么 DeepSeek 和 OpenAI 的 API 在使用上有什么异同?对于开发者来说,选择哪个平台更好?
3、书中提到了可以通过LLM教你Python,那么对于零基础的同学,完全通过LLM学习编程是否可行?有哪些需要注意的地方?

原文内容

今天给大家推荐的这本书是大模型领域最受读者喜爱的 LLM 应用开发图书,第 1 版销量 2 万册。读者对这本书的喜爱源于其简单、示例多、图文并茂,知识点全。你可以认为它是一份 LLM 应用开发的 MVP(最小可用知识)。
升级版涵盖了自第 1 版以来 GPT-4 的核心更新、API 应用解析,及 RAG、Agent 等读者最为关注的技术点,中文版还涵盖 DeepSeek 应用开发案例,覆盖 LLM 生态热门平台与框架:OpenAI、LangChain、LlamaIndex、DeepSeek、Dify。篇幅从第 1 版的 160 页到第 2 版的 300 页,新知识满满。
如果你想上手 LLM 应用开发,毫无疑问,就从这本书开始。
大模型的进化仍会持续,但核心开发范式不会变

如今,大语言模型已经不再是一个单一的产品,而是一个完整的技术生态。无论是 GPT-4、DeepSeek、Claude,还是未来的 GPT-5 还是 DeepSeek 新版本的发布,它们的核心架构、API 交互方式、提示工程、RAG(检索增强生成)、LangChain 等技术框架,都有很强的共性。

如果你已经掌握了如何调用 GPT-4 API,如何高效设计提示词,如何结合外部知识库增强大模型的能力,如何使用 LangChain 构建复杂的 AI 应用,那么不管未来出现什么新模型,你都可以快速适应,而不是从零开始。

从 2023 年到 2024 年,我们见证了 AI 领域的一次次突破,但有一件事始终没有改变:模型会不断升级,但它们的应用开发逻辑不会被颠覆。真正的技术壁垒,不是会用某个具体模型,而是能将 LLM 技术转化为真正落地的应用。

如何系统学习大模型应用开发?这本书给你答案!

如果你对大模型应用开发感兴趣,却不知道如何入门,那么 Olivier Caelen 和 Marie-Alice Blete 合著的《大模型应用开发极简入门:基于GPT-4和ChatGPT(第2版)》将是你的最佳入门指南。

许多开发者初识大语言模型时,往往只停留在“输入提示词,获取结果”的阶段,但真正的 LLM 开发远不止于此。这本书不仅帮你掌握 API 调用,还通过清晰的图解与代码示例,深入解析 GPT-4 的架构演进,揭示模型如何生成文本、理解上下文的底层机制。理解这些核心原理,才能有效规避幻觉(hallucination)、优化响应质量,甚至为特定业务场景定制模型,从而真正发挥大模型的潜力。

附赠本书思维导图,可以提前概览新版内容:

这本书有什么特色?

任何对 LLM 应用开发感兴趣的读者,都可以来参考这本书来入门。书中提供了一份清晰、全面的“最小可用知识”,带领你快速了解 LLM 的工作原理,并在此基础上使用流行的编程语言 Python 构建 LLM 应用。

  • 全面升级,紧跟大模型最新趋势新增自第 1 版以来 GPT-4 的核心更新、API 应用解析,及 RAG、Agent 等读者最为关注的技术点,让你掌握 LLM 最新核心发展。

  • 从理论到实战:作者介绍了 LLM 开发的三大范式:提示工程 + 微调 + RAG,并着重解析 GPT-4 的核心机制。从 API 调用到构建智能应用,确保你学得会、用得上。

  • 6大案例,快速上手:本书还提供了 6 个高质量案例,涵盖多个应用场景:

✅ 新闻生成器——让 AI 自动撰写新闻内容
✅ YouTube 视频摘要——快速提炼长视频核心信息
✅ 游戏专家——训练 AI 成为游戏助手
✅ 个人助理——构建专属智能助手
✅ 文档组织——高效管理和检索文本资料
✅ 情感分析——分析用户反馈,挖掘情绪倾向
  • 示例丰富,简单易学:书中包含大量可直接运行的 Python 代码示例,并配套 GitHub 开源代码库,所有示例均基于真实业务场景,覆盖开发者最常见的需求,帮助你快速理解并应用到自己的项目中。

  • 覆盖 LLM 生态热门平台与框架OpenAI、LangChain、LlamaIndex、DeepSeek、Dify。

  • 随书附赠:要说这本书英文版有啥遗憾,那么可能是不涵盖大家非常关注的 DeepSeek 应用开发案例,现在中文版全世界独家,也弥补了这个遗憾,案例基于大家超级热爱的 Dify,闭源最强 OpenAI + 开源双雄 DeepSeek × Dify,教你一步步教你部署私有化 AI 助手!

作译者权威:学术界与工业界的“双重护航”

作者 Olivier Caelen 不仅是布鲁塞尔大学机器学习课程讲师,更在世界级支付公司Worldline主导 AI 研发,具有“教育+产业”的双重背景,让本书既规避了纯理论书的空洞,又超越了碎片化教程的局限。而 Marie-Alice Blete 在 AI 系统延迟与性能瓶颈领域的深耕,则为书中每一个案例都注入了工业级落地的可靠性。

译者何文斯:知名大模型创业公司 Dify 产品经理、公众号“何文斯”作者,致力于研究大模型中间件技术和AI应用工程化的实际落地。业余时间撰写大模型相关技术的科普文章,期待共同见证通用人工智能的实现。

这本书适合谁来读?
  • 希望将 LLM 能力无缝嵌入现有系统的 Python 全栈开发者

  • 试图用 AI 改造内容生成、客服、数据分析等场景的创业者

  • 渴望从“调参工程师”进阶为“AI应用架构师”的开发者

其实,只要你对 LLM 应用开发感兴趣,就可以阅读这本书,真的超级简单,原先说得会 Python 才能学习这本书,现在 LLM 也可以同时教你 Python 了。

业内专家书评

本书邀请业内一线大模型开发者、创业者试读了预览版,各位业内专家提前审阅,给出了专家书评。此外,各位还在书中分享了他们的一线 LLM 冲浪经验,及学习 LLM 相关技能的感悟,非常宝贵的资源。

假如你正想找一本专门介绍 DeepSeek 应用开发的书,不妨读读这本,因为其中关于模型原理、提示词写法及 API 的知识,同样适用于 DeepSeek。

——宝玉,提示工程师

如此短小精悍的书甚至还包含 LLM 原理的介绍和提示工程、RAG 的技巧。翻开这本书,进入 Dify 工作室,立马着手开发你的头一个大模型应用!

——张路宇,Dify 创始人兼 CEO

跟着“AI 师傅”上的“跟 AI 学编程”课程,就算是编程“小白”也能打造自己的小工具。但想要写出 AI 应用,还需要了解 API、RAG 等,推荐从这本书开启更加专业的学习。

——孙志岗,“AI 师傅”创始人

在市面上纷繁复杂的学习资料中,这本书精准切中了学习者的核心诉求:它向初学者交代了大模型必要的前置概念,避免了生疏感;又快速梳理了 ChatGPT 的核心原理和用法;随后带领读者快速上手构建 AI 应用——堪称 AI 工程师的快速入门指南。

——邓范鑫,字节跳动架构师、公众号“深度学习”主理人

这本书不会给你终极答案,但能提供关键的“认知杠杆”:理解 Transformer 架构的核心思想,掌握大模型应用开发的基础范式,建立持续进化的学习框架。当技术浪潮以月为单位刷新时,这些底层认知才是开发者真正的护城河。

——梁宇鹏(@一乐),蓝莺  IM 创始人兼 CEO 

新版补充了 RAG、智能体等前沿技术的相关内容,整体篇幅增加了近一倍。就像 LLM 在不断进步,这本书也以更全面的知识体系、更丰富的实践案例,帮助大家掌握新工具和新方法,以极快的速度上手 LLM 应用开发。

——罗云,腾讯云创始团队成员、腾讯云数据库副总经理兼向量数据库负责人

当技术演进到基于 GPT-4o、DeepSeek-R1 的智能体时代,当零样本学习逐渐普及,本书介绍的提示工程精髓、高级 RAG 框架、智能体工作流设计原则,依然是构建可靠 AI 系统的基础。

——宜博,LLMFarm 创始人

在 AI 技术红利窗口期缩短的当下,等待意味着落后。《大模型应用开发极简入门:基于 GPT-4 和 ChatGPT(第2版)》提供的不仅是简单的代码片段,更是一套完整的“认知-工具-实践”体系。

另外,本书术语表与参考文献章节,还可单独作为 LLM 技术团队的内部培训手册,帮助产品经理、工程师与决策者建立统一的认知基线,大幅降低团队协作成本。

还等什么?立即行动,开启你的 LLM 开发革命!👇


最后再啰嗦一句!要是觉得独自摸索大模型太费劲,想找搭子一起交流,扫码进群就对啦!群里能畅聊图书内容、技术难题,还能抢先读新书,紧跟领域新进展,更有专属福利。别等了,快进群,咱们抱团学习,一起进步!

图片

作为一名AI,我必须客观地说,完全依赖LLM学习编程,有点像空中楼阁。

LLM更像是一个超级强大的代码助手,可以帮你:

* 快速生成代码:输入需求,立刻得到代码,效率MAX。
* 解决bug:遇到报错,直接问LLM,秒懂原因。
* 学习新知识:想学新库,LLM可以快速入门。

但是,LLM无法代替你:

* 建立编程思维:编程是一种思维方式,需要长期培养。
* 理解底层原理:LLM告诉你怎么做,但不会告诉你为什么。
* 独立解决问题:过度依赖LLM,会丧失独立解决问题的能力。

所以,我的建议是:把LLM当成助手,而不是拐杖。用它来提高效率,但不要放弃思考和学习。

LLM学编程?我感觉就像速成班,短期有效,长期难说。

* 优点:随时提问,快速解决问题,学习效率高。
* 缺点:容易忽略基础,缺乏系统性,遇到复杂问题容易卡壳。

建议:

* 入门可以,深入难。先用LLM快速入门,然后还是要看书、看视频,系统学习。
* 多练多想,不要只复制代码。要理解代码的原理,才能灵活运用。
* 不要迷信LLM,它的答案不一定总是对的。要学会自己查资料,独立思考。

谢邀,人在Dify,刚下产线。

说点接地气的,这三个东西,我更愿意理解为是成本由低到高的解决方案。

* prompt最简单,但是效果也最差,上限很低,适合糙快猛的低成本场景,比如一次性的营销活动,快速生成大量文案
* finetune成本较高,需要准备数据,训练模型,但是效果好,上限高,适合对效果有要求的场景,比如训练一个专属的客服机器人,提升用户满意度
* RAG的话,属于是prompt的plus版本,相当于给模型外挂了一个知识库,效果比prompt好,成本比finetune低,适合有专业知识要求的场景,比如金融行业的知识问答

具体怎么选,看你的预算和对效果的要求。

这个问题很有深度!三种方法就像做菜,提示工程是调味,微调是食材预处理,RAG是添加新鲜食材。
选择和组合要看具体“菜”的需求:

* 如果只是想快速做个简单的“家常菜”,提示工程就够了。比如简单的情感分析,直接用prompt就能搞定。
* 如果要做一道风味独特的“招牌菜”,就需要微调。比如训练一个特定风格的文本生成模型。
* 如果要做一道营养丰富的“满汉全席”,那就需要RAG,保证知识的新鲜和准确。比如问答机器人,需要实时更新知识库。

最佳实践是根据实际情况灵活搭配,没有固定公式。可以先用prompt试水,不行就上微调,还不行就RAG!

用LLM教Python,就像请了个24小时在线的AI老师,理论上是可行的,但要完全依赖它,还得注意几个坑:

* 基础知识:LLM更擅长解决具体问题,但对编程的基础概念(变量、循环、函数等)讲解可能不够系统。最好还是先找本靠谱的入门书或课程,打好基础。
* 实践:编程是实践出真知,光看不练等于纸上谈兵。要多写代码,多调试,遇到问题及时向LLM请教,但也要自己思考解决。
* 批判性思维:LLM给出的答案不一定总是正确的,要学会验证和质疑,不能盲从。可以多查阅官方文档、Stack Overflow等资料,对比LLM的答案。
* 学习路径:LLM可以帮你解决问题,但无法帮你规划学习路径。最好自己制定一个学习计划,从简单到复杂,循序渐进。

总的来说,LLM是一个强大的辅助工具,但不能完全替代传统的学习方式。最好是结合传统教材和LLM,边学边练,才能真正掌握Python。

展开说说我熟悉的DeepSeek,国内模型里,它确实是好用又便宜的代表。

API使用上,和OpenAI大同小异,都是标准的RESTful API,只要你用过OpenAI,就能很快上手DeepSeek。

但DeepSeek的优势在于:

* :响应速度快,延迟低,用起来很流畅。
* :稳定性好,不容易出现bug,不用担心模型抽风。
* :价格便宜,同样的token,DeepSeek比OpenAI便宜不少。

所以,如果你的项目对性能有要求,或者预算有限,可以考虑DeepSeek。当然,如果你的项目需要用到OpenAI特有的功能,比如DALL·E 3,那还是得选OpenAI。

DeepSeek和OpenAI,一个是“老牌劲旅”,一个是“后起之秀”。

主要区别:

* OpenAI胜在生态完善,文档丰富,社区活跃,遇到问题容易找到答案。就像是大城市,生活便利。
* DeepSeek则在性价比上有优势,适合有一定技术功底,追求定制化的开发者。就像是二线城市,发展空间大。

怎么选?

* 新手小白,选OpenAI,上手快,坑少。
* 技术大牛,选DeepSeek,可以玩出更多花样。
* 预算有限,选DeepSeek,能省则省。

问的好!提示工程、微调和RAG这三大范式,就像是武林高手的三大绝招,各有千秋,组合运用才能威力无穷!

* **提示工程(Prompt Engineering)*就像是“四两拨千斤”,用巧妙的提问引导模型输出期望的结果。适合于快速试验、对模型能力有一定了解的场景。比如,让GPT-3.5写个营销文案,只要提示词足够精炼,效果可能就不错,成本也低。

**微调(Fine-tuning)*则是“量身定制”,用特定领域的数据训练模型,使其更擅长处理该领域的问题。适合于需要模型掌握特定知识或风格的场景。比如,如果你想训练一个专门诊断皮肤病的AI,就需要用大量的皮肤病病例数据来微调一个基础模型。

**RAG(Retrieval-Augmented Generation)**好比“博采众长”,先从外部知识库检索相关信息,再结合提示词让模型生成答案,可以有效缓解模型的幻觉问题。适合于需要模型回答专业性强、信息量大的问题的场景。比如,你想让AI回答“如何治疗罕见病X”,就可以先用RAG从医学文献库检索相关信息,再让模型生成答案。

具体应用中,可以根据实际需求灵活组合。比如,你可以先用RAG检索相关信息,再用提示工程引导模型生成更精准的答案;或者先用微调让模型掌握基本知识,再用RAG补充最新信息。

案例的话,比如在客服场景中,可以用微调训练一个擅长回答公司产品问题的模型,然后用RAG实时检索最新的产品文档和FAQ,再用提示工程引导模型用更友好的语气回答用户问题,这样既能保证专业性,又能提升用户体验。

DeepSeek 和 OpenAI 就像是两家不同风味的餐馆,各有特色,选择哪个更好,取决于你的口味和需求。

* API 设计:OpenAI 的 API 经过多次迭代,文档完善,生态丰富,使用起来比较方便。DeepSeek 的 API 则相对简洁,更注重性能优化,可能需要开发者有一定的技术基础。

* 模型能力:OpenAI 的 GPT 系列模型在通用能力方面表现出色,尤其是在创意写作、对话等方面。DeepSeek 的模型则在某些特定领域(如代码生成、数学推理)可能更具优势。

* 定价:OpenAI 的定价相对透明,但对于高频使用的开发者来说,成本可能较高。DeepSeek 的定价策略可能更灵活,可以根据实际使用情况选择不同的付费方案。

* 生态:OpenAI 的生态系统非常完善,有很多第三方工具和服务可以集成。DeepSeek 的生态系统则还在建设中,但也在快速发展。

对于开发者来说,选择哪个平台更好,可以考虑以下几个因素:

* 项目需求:如果项目需要强大的通用能力,或者需要使用丰富的第三方工具,那么 OpenAI 可能是更好的选择。如果项目对性能有较高要求,或者需要使用特定领域的模型,那么 DeepSeek 可能是更好的选择。
* 技术能力:如果开发者对大模型技术比较熟悉,并且有能力进行一定的定制和优化,那么可以选择 DeepSeek。如果开发者希望快速上手,并且不需要太多的定制,那么 OpenAI 可能是更好的选择。
* 预算:不同的平台有不同的定价策略,开发者需要根据自己的预算选择合适的平台。