《大模型应用开发极简入门》:快速上手AI开发的实用指南

推荐一本AI入门好书《大模型应用开发极简入门》,帮你快速上手GPT-4和ChatGPT,从理论到实战,构建你的第一个AI应用!

原文标题:这本小书低调到不行,却比那些大部头讲得更清楚!

原文作者:图灵编辑部

冷月清谈:

《大模型应用开发极简入门:基于 GPT-4 和 ChatGPT(第2版)》是一本旨在帮助初学者快速进入AI应用开发领域的实用书籍。本书内容精炼,结构清晰,涵盖了大模型的基础理论、提示词调校、LangChain、RAG、智能体开发等关键技术。通过六个实战项目,读者可以快速掌握AI在新闻摘要、视频总结、游戏助手、个人助手、文本管理和情绪分析等领域的应用。此外,本书还介绍了提示工程、微调、RAG框架、LangChain和智能体设计等高阶内容,并附赠DeepSeek × Dify应用开发案例。本书适合初级程序员、产品经理、创业者以及所有想从“用ChatGPT”过渡到“做自己的ChatGPT”的人。

怜星夜思:

1、书中提到了RAG框架,它可以用来快速搭建问答系统,那么在实际应用中,RAG框架有哪些常见的局限性?你觉得未来RAG框架会朝着哪些方向发展?
2、书中提到了提示工程(Prompt Engineering),你认为在AI应用开发中,提示工程的重要性体现在哪些方面?
3、书中提到可以使用OpenAI API或Web界面做任务微调,那么微调的主要目的是什么?它适用于哪些场景?

原文内容

2025 年最值得“开箱”的 AI 开发工具,不是一堆眼花缭乱的新模型,也不是某个热炒的开发平台,而是这本实实在在的小册子——《大模型应用开发极简入门:基于 GPT-4 和 ChatGPT(第2版)》。

它不仅是一本书,更像是一个组合工具箱:从基础理论、提示词调校,到 LangChain、RAG、智能体开发,它一步步教你把语言模型从“聊天”变成“应用”

我对它的评价很简单:轻、小、快、能打。

如果你有过“想做点 AI 项目但不知道从哪开始”的困惑,这本书适合做你最初的起点!

这本书到底讲什么?

先说结论:这本书真的“极简”,但不水;“入门”,又有深度。作者非常清楚读者是谁:具备一定基础 Python 能力、想做 AI 项目但不知道怎么起步的人。

开篇两章快速建立认知底座:

  • GPT 模型怎么处理文本和图像?

  • Transformer 架构是怎么工作的?

  • OpenAI 提供的 API 有哪些接口?

  • 怎么用 Python 写出一个“Hello, AI”的程序?

这些知识,不空、不绕,都是能马上落地用的内容。比如,OpenAI 的聊天补全模型怎么设置 temperature 和 top_p?返回结果长什么样?怎样请求 JSON 格式输出?书里全都有代码演示和参数解释。

你读一章,写两行,就能跑出结果。

六个项目,实战拉满

第 3 章,可以说是全书的实战高能区。作者提供了 6 个实际可跑的应用案例,覆盖了大模型应用开发中最常见也是最实用的场景:

  1. 📰 自动生成新闻摘要

  2. 📹 总结 YouTube 视频内容

  3. 🎮 打造一个游戏专家 AI 助手(基于《塞尔达传说》)

  4. 🧠 构建个人 AI 助手

  5. 📂 高效管理和检索文本资料

  6. ❤️ 做情绪分析

每个项目都有背景说明、架构思路、技术点拆解,以及完整的 Python 代码。读完立刻能用,稍加修改就能落地到自己的产品或副业中。

比如我个人最喜欢的是“视频摘要器”项目,它用 OpenAI 的 API 对视频内容文本进行处理,提取要点生成摘要,非常适合内容运营或教育类场景。

高阶内容也不少

别看这本书薄,高阶内容一样不落下:提示工程、RAG、LangChain、Agent...

从第 4 章开始,你能学到当下最重要的 LLM 技术路线图:

  • 提示工程:怎么写出好用的 prompt?怎么用“逐步思考”(chain of thought)提升模型表现?

  • 微调:用 OpenAI API 或 Web 界面做任务微调,适用于个性化业务。

  • RAG 框架:检索增强生成原理、使用 LlamaIndex 快速搭建问答系统。

  • LangChain & Assistants API:教你如何串联模块,打造可扩展的复杂的 AI 工作流。

  • 智能体(Agent)设计:用插件、调用函数、接入工具,学会让模型“干活”而不仅是“说话”。

这些内容讲得并不复杂,该有的都有,代码能跑,例子也都贴地。还有一个附赠的 DeepSeek × Dify 应用开发案例小册子,个人觉得这个还是蛮实用的。

谁适合读这本书

  •  如果你是初级程序员,想入门 AI 应用开发

  • 如果你是产品经理,想快速验证大模型落地原型

  • 如果你是创业者,想亲自上手干点 AI 项目,不想光听术语

  • 渴望从“调参工程师”进阶为“AI 应用架构师”的开发者

  • 甚至你就是好奇,想从“用 ChatGPT”过渡到“做自己的 ChatGPT”

这本书都非常适合你。

AI 应用开发第一本书

它不是 AI 圣经,但可能是你最实用的第一本书!

市面上讲大模型的书太多了,有的谈原理、有的做科普、有的只适合大神。但这本书的最大价值在于它站在“开发者能动手”的视角,把复杂的内容拆小讲清,把能用的功能变成真实的代码跑起来。

它帮你快速建立 AI 开发的知识图谱,让你从“看得懂”变成“做得出”。实打实帮你打开了 AI 应用开发的大门。

所以如果你打算在 2025 年真正用大模型做点东西,这本书绝对适合你用来开启第一步!

《大模型应用开发极简入门:基于GPT-4和ChatGPT(第2版)》 

奥利维耶·卡埃朗,[法] 玛丽–艾丽斯·布莱特 | 著

何文斯 | 译

深受读者喜爱的大模型应用开发图书升级版,作者为初学者提供了一份清晰、全面的“最小可用知识”,带领你快速了解 GPT-4 和 ChatGPT 的工作原理及优势,并在此基础上使用流行的 Python 编程语言构建大模型应用。
升级版在旧版的基础上进行了全面更新,融入了大模型应用开发的最新进展,比如 RAG、GPT-4 新特性的应用解析等。随书赠 DeepSeek × Dify 应用开发案例,书中还提供了大量简单易学的示例,帮你理解相关概念并将其应用在自己的项目中。

附赠本书内容导图:

作译者权威

作者 Olivier Caelen 不仅是布鲁塞尔大学机器学习课程讲师,更在世界级支付公司Worldline主导 AI 研发,具有“教育+产业”的双重背景,让本书既规避了纯理论书的空洞,又超越了碎片化教程的局限。而 Marie-Alice Blete 在 AI 系统延迟与性能瓶颈领域的深耕,则为书中每一个案例都注入了工业级落地的可靠性。

译者何文斯:知名大模型创业公司 Dify 产品经理、公众号“何文斯”作者,致力于研究大模型中间件技术和AI应用工程化的实际落地。业余时间撰写大模型相关技术的科普文章,期待共同见证通用人工智能的实现。

业内专家推荐

本书邀请业内一线大模型开发者、创业者试读了预览版,各位业内专家提前审阅,给出了专家书评。此外,各位还在书中分享了他们的一线 LLM 冲浪经验,及学习 LLM 相关技能的感悟,非常宝贵的资源。

假如你正想找一本专门介绍 DeepSeek 应用开发的书,不妨读读这本,因为其中关于模型原理、提示词写法及 API 的知识,同样适用于 DeepSeek。

——宝玉,提示工程师

如此短小精悍的书甚至还包含 LLM 原理的介绍和提示工程、RAG 的技巧。翻开这本书,进入 Dify 工作室,立马着手开发你的头一个大模型应用!

——张路宇,Dify 创始人兼 CEO

跟着“AI 师傅”上的“跟 AI 学编程”课程,就算是编程“小白”也能打造自己的小工具。但想要写出 AI 应用,还需要了解 API、RAG 等,推荐从这本书开启更加专业的学习。

——孙志岗,“AI 师傅”创始人

在市面上纷繁复杂的学习资料中,这本书精准切中了学习者的核心诉求:它向初学者交代了大模型必要的前置概念,避免了生疏感;又快速梳理了 ChatGPT 的核心原理和用法;随后带领读者快速上手构建 AI 应用——堪称 AI 工程师的快速入门指南。

——邓范鑫,字节跳动架构师、公众号“深度学习”主理人

这本书不会给你终极答案,但能提供关键的“认知杠杆”:理解 Transformer 架构的核心思想,掌握大模型应用开发的基础范式,建立持续进化的学习框架。当技术浪潮以月为单位刷新时,这些底层认知才是开发者真正的护城河。

——梁宇鹏(@一乐),蓝莺  IM 创始人兼 CEO 

新版补充了 RAG、智能体等前沿技术的相关内容,整体篇幅增加了近一倍。就像 LLM 在不断进步,这本书也以更全面的知识体系、更丰富的实践案例,帮助大家掌握新工具和新方法,以极快的速度上手 LLM 应用开发。

——罗云,腾讯云创始团队成员、腾讯云数据库副总经理兼向量数据库负责人

当技术演进到基于 GPT-4o、DeepSeek-R1 的智能体时代,当零样本学习逐渐普及,本书介绍的提示工程精髓、高级 RAG 框架、智能体工作流设计原则,依然是构建可靠 AI 系统的基础。

——宜博,LLMFarm 创始人

微调嘛,可以理解为给AI“补习功课”。

* 目的:让AI在特定领域更专业,就像让学霸专门去研究一道难题。
* 适用场景
* 专业领域:比如医疗、法律等,需要AI掌握特定领域的知识。
* 特定任务:比如情感分析、文本摘要等,需要AI在特定任务上表现更好。
* 个性化需求:比如你想让AI模仿你的写作风格,就可以用你的文章进行微调。

但是,微调也是有风险的,搞不好会把AI的“脑子”搞坏,所以要谨慎操作哦!

微调,我的理解是给大模型“开小灶”,让它在某个特定领域或者任务上表现得更好。

主要目的:

1. 提升准确率:在特定任务上,微调后的模型通常比通用模型更准确。
2. 减少幻觉:通过微调,可以让模型更专注于真实信息,减少生成不实内容。
3. 定制化风格:可以根据用户的偏好,定制模型的输出风格。

适用场景:

* 客服机器人:用客服数据微调,让机器人更懂产品和客户需求。
* 内容生成:用特定风格的数据微调,生成符合品牌调性的内容。
* 数据分析:用行业数据微调,提升数据分析的准确性。

微调的主要目的,就是让模型更好地适应特定任务或数据集。简单来说,就是“投其所好”,让模型更懂你。

它适用于以下场景:

* 特定领域的知识:比如,你想让模型更懂医学知识,就可以用医学文献进行微调。
* 特定风格的生成:比如,你想让模型写出像金庸一样的武侠小说,就可以用金庸的小说进行微调。
* 提升特定任务的性能:比如,你想让模型在情感分析任务上更准确,就可以用标注好的情感数据进行微调。

需要注意的是,微调需要一定的计算资源和数据,而且也存在过拟合的风险,需要谨慎操作。

提示工程的重要性,我觉得可以从这几个角度来看:

1. 解锁模型能力:大模型的能力是隐藏的,需要通过合适的Prompt才能激发出来。
2. 减少错误和偏差:好的Prompt可以引导模型避免产生不准确、有偏见或者有害的内容。
3. 定制化应用:通过Prompt,可以根据不同的应用场景定制模型的行为,满足特定需求。

举个例子,你想让模型写一篇关于“气候变化”的文章,如果你只给它一个简单的Prompt:“写一篇关于气候变化的文章”,那它可能会写得很宽泛。但如果你给它更详细的Prompt:“写一篇关于气候变化对北极熊生存影响的文章,包括具体数据和案例”,那它写出来的文章就会更聚焦、更深入。

咳咳,作为一名资深“调参侠”,我来分享一下我的看法。提示工程的重要性,就相当于:

* 给Siri清晰的指令:你想让Siri给你定个闹钟,你说“明天叫我起床”,Siri可能一脸懵。但如果你说“明天早上7点叫我起床”,Siri立马就明白了。
* 厨师的菜谱:同样的食材,不同的菜谱,做出来的菜味道可能千差万别。

总之,提示工程就是AI时代的“编程语言”,学好它,你才能更好地驾驭AI!

谢邀,利益相关,RAG方向创业者,怒答一波~

RAG的局限性,一句话概括就是:检索质量决定了生成的质量。更细致说:

1. 检索噪声:检索结果里混入无关信息,干扰模型生成。
2. 知识过时:知识库更新不及时,导致答案错误。
3. 长文本处理:RAG对长文本的支持还不够好,容易丢失关键信息。

未来嘛,我觉得有几个趋势:

* 更精准的向量检索:优化向量模型,提高检索准确率。
* 知识图谱融合:结合知识图谱,增强推理能力。
* 端到端优化:把检索和生成作为一个整体来优化。

总之,RAG还处于快速发展阶段,未来可期!

这个问题很有意思!RAG虽然强大,但也有些短板。

* 局限性: 一是检索的文档可能不准确或者过时,导致生成的内容不可靠;二是RAG对长文本的处理能力有限,容易丢失上下文信息;三是prompt的好坏对答案质量影响很大,需要反复调优。
* 未来发展方向: 我觉得RAG会更注重知识库的实时性和准确性,比如引入动态更新机制;同时,会加强对复杂问题的推理能力,可能结合知识图谱等技术;另外,prompt工程也会更加智能化,减少人工干预。

总的来说,RAG还有很大的进步空间,期待它在未来能更好地服务于各种应用场景!

提示工程,我觉得就像是和大模型“对话”的艺术。好的提示,能让模型更好地理解你的需求,给出更准确、更有用的答案。它的重要性体现在:

* 提高模型效果:同一个模型,不同的提示,输出结果可能天差地别。好的提示能充分挖掘模型的潜力。
* 降低开发成本:通过优化提示,可以用更少的资源(比如更小的模型)达到更好的效果。
* 增强可控性:提示工程可以引导模型的行为,让它按照你的意图输出内容。

所以,提示工程绝对是AI应用开发中不可或缺的一环!

RAG框架,我理解它就像是给大模型外挂了一个搜索引擎。局限性嘛,我觉得主要有这几点:

1. 知识库质量问题:如果检索到的信息本身就是错的或者有偏见的,那生成的结果肯定也好不到哪去。
2. 上下文理解不足:RAG在处理复杂问题时,可能没法很好地理解问题和检索到的信息之间的关联,导致回答不够精准。
3. Prompt设计挑战:好的Prompt决定了RAG的效果,但是Prompt的设计往往需要大量的实验和调优。

至于未来发展,我觉得可以关注这几个方向:

* 更智能的检索:不仅仅是关键词匹配,而是能真正理解问题意图的语义检索。
* 更强大的推理能力:让RAG能够基于检索到的信息进行更深层次的推理和判断。
* 自适应的Prompt优化:能够根据不同的问题和知识库自动调整Prompt。