AI工程不仅仅是Prompt,更重要的是方法论!《AI工程指南》帮你搭建AI认知框架,解决幻觉、检索质量等痛点,让AI真正落地。
原文标题:想做AI应用,这本书把认知框架给你搭好了
原文作者:图灵编辑部
冷月清谈:
怜星夜思:
2、文章提到“标准化的是工程能力,不是产出结果”,那么在实际AI项目落地中,如何平衡标准化和定制化之间的关系?
3、文中强调人在Agent流程中扮演“守门员”的角色,但如果业务量很大,人工审核效率跟不上怎么办?有什么技术手段可以辅助人工审核?
AI工程不仅仅是Prompt,更重要的是方法论!《AI工程指南》帮你搭建AI认知框架,解决幻觉、检索质量等痛点,让AI真正落地。
原文作者:图灵编辑部
当然不够!Prompt Engineering只是入门。我觉得未来的AI工程师更像是“AI架构师”,需要具备系统性的思维,能够理解业务需求,选择合适的模型和工具,设计完整的解决方案,并持续优化和维护。更重要的是,要具备良好的沟通能力和团队协作精神,能够与不同背景的人一起解决问题。
我觉得可以从数据源头入手。检查训练数据的质量,过滤掉那些有误导性的或者不准确的信息。如果模型学到的东西本身就是错的,那它生成的内容出错的概率肯定也高。相当于从根上治理幻觉问题。
我觉得要看场景。如果是一些重复性高、需求明确的场景,比如智能客服,就可以尽量标准化。但如果是一些创新性强、探索性高的场景,比如新药研发,可能就需要更多的定制化。关键是要找到一个合适的粒度,避免过度标准化导致灵活性不足,也避免过度定制化导致成本过高。
当业务量大的时候,完全靠人工审核肯定不现实。可以引入一些自动化工具,比如敏感词过滤、内容质量评估模型等等,先过滤掉一部分明显不合格的内容,然后再由人工审核剩余的部分。这样可以大大提高审核效率。
既然目的是“增强人的能力”,那不妨试试“人机协作”。让人工智能辅助人进行决策,比如让AI提供几种可能的选项,标注出风险较高的内容,让人来做最终判断。这样既能提高效率,又能保证质量。
有意思!我最近在研究prompt的技巧来缓解幻觉,通过在Prompt里面加入一些约束条件,比如要求模型在回答问题的时候必须给出明确的参考来源,或者使用一些否定词来限制模型生成不真实的内容。当然,这需要不断地尝试和调整,才能找到最适合的Prompt模板。
主动学习可能是个思路。先用少量人工标注的数据训练一个模型,然后用这个模型去预测未标注的数据,把模型认为最不确定的数据交给人工审核。这样可以更有效地利用人工审核的资源,把精力放在最需要的地方。
这个平衡点很难找啊!我的理解是,标准化的是底层的基础设施和流程,比如数据清洗、模型训练、部署方式等等。而定制化体现在应用层面,根据不同客户的需求,利用标准化的基础设施快速搭建个性化的解决方案。有点像乐高积木,用标准化的零件搭建不同的模型。
针对大模型幻觉,除了人工审核,还可以试试知识图谱增强。把领域知识构建成图谱,让模型在生成内容时参考图谱,减少瞎编乱造的可能性。听说有些团队在用这种方法,效果还不错,但构建知识图谱成本也不低。
可以考虑平台化的思路,把常用的AI能力封装成一个个API接口,然后根据用户需求,灵活组合这些API接口,形成定制化的解决方案。这样既能保证一定的标准化程度,又能满足用户的个性化需求。我理解的关键是中台建设。