LM Studio:在本地轻松运行LLM的完整指南

LM Studio提供便捷的方法在本地运行开源LLM,确保隐私与自由度,是个人用户的优选工具。

原文标题:使用LM Studio在本地运行LLM完整教程

原文作者:数据派THU

冷月清谈:

LM Studio是一款便捷的桌面软件,旨在帮助用户在本地计算机上轻松运行开源LLM模型。本文中详细介绍了使用LM Studio的五大优势,包括脱机使用、模型访问、隐私保护、实验以及成本效益。用户可以通过LM Studio自由下载和运行如Llama 2、Vicuna等多种开源模型,解决了许多用户对于在线模型的一些顾虑,如隐私和连接问题。不过,安装和配置LM Studio需要一定的计算机知识。文章还提供了具体的操作步骤,包括如何下载适合系统的版本、选择可用模型以及进行相应设置,如“Context Overflow Policy”及“Chat Appearance”等。在完成设置后,用户可以直接在“USER”字段输入查询,LM将给出相应的AI回答,使用户能体验到本地使用的便利与高效。文章最后强调了LM Studio在个人用户寻找本地AI解决方案时的重要性,为那些希望利用开源模型的用户提供了良好的起点。

怜星夜思:

1、在什么情况下你认为本地运行LLM比使用云端模型更具优势?
2、如何评价LM Studio的用户界面和使用体验?
3、在使用LM Studio的过程中,有哪些可能遇到的常见问题?

原文内容

图片
来源:DeepHub IMBA

本文约3400字,建议阅读10分钟

LM Studio提供了一种使用OpenAI兼容接口来提供模型的方便方法。


GPT-4被普遍认为是最好的生成式AI聊天机器人,但开源模型一直在变得越来越好,并且通过微调在某些特定领域是可以超过GPT4的。在开源类别中,

出于以下的原因,你可能会考虑过在本地计算机上本地运行LLM :

  1. 脱机:不需要互联网连接。
  2. 模型访问:在本地运行模型,可以尝试开源模型(Llama 2、Vicuna、Mistral、OpenOrca等等)。
  3. 隐私:当在本地运行模型时,没有信息被传输到云。尽管在使用GPT-4、Bard和claude 2等基于云的模型时,隐私问题可能被夸大了,但在本地运行模型可以避免任何问题。
  4. 实验:如果你看到了生成人工智能的价值,可以通过测试了解模型的细节并知道还有什么可用。
  5. 成本:开源模型是免费的,其中一些可以不受限制地用于商业。

对许多人来说,运行本地LLM需要一点计算机知识,因为它通常需要在命令提示符中运行它们,或者使用更复杂的web工具,如Oobabooga。

LM Studio是一个免费的桌面软件工具,它使得安装和使用开源LLM模型非常容易。

但是请记住,LM Studio并不开源,只是免费使用。

但是LM Studio是我目前见到最好用,也是最简单的本地测试工具,所以如果是本机测试使用的话还是推荐试一试他。

首先进入“lmstudio.ai”,下载并安装适合操作系统的版本:

LM Studio,选择要安装的LLM。

可以通过选择主窗口中列出的社区建议模型之一来实现进行,也可以使用HuggingFace上可用的任何模型的搜索栏查找关键字。

模型搜索列表中可以看到安装/下载文件的大小。请确保下载的大小没有问题。(国内需要魔法)

在屏幕左上角的发布日期栏,是“compatibility guess”。LM Studio已经检查了本地系统,并展示它认为可以在计算机上运行的那些模型。要查看所有模型,点击“compatibility guess”(#1)。点击左边的一个模型,右边就会显示可用的版本,并显示那些根据你的电脑规格应该可以工作的模型(#2)。见下图:

根据计算机的能力/速度,较大的模型将更准确,但速度较慢。并且这个鞋模型中的大多数都是量化的,包含了GGML和GGUF等格式。(具体这些格式可以参考我们以前的文章)

模型下载完成后,(1)在窗口顶部的下拉菜单中选择模型;(2)选择左侧栏中的聊天气泡;(3)打开右侧的“Context Overflow Policy”和“Chat Appearance”。

确保在“Context Overflow Policy”下选择“Maintain a rolling window and truncate past messages”,并在“Chat Appearance”下选择“Plaintext”。

打开“Model Configuration”,然后打开“Prompt Format”,向下滚动到“Pre-prompt / System prompt”,选择“>”符号打开。可以在这里输入系统“role”。也就是说可以设定希望机器人如何行动,以及在它的回答中应该提供什么“技能”或其他特定的品质。这与ChatGPT Plus帐户的“Custom instructions”相同。

继续向下滚动,找到“Hardware Settings”。默认设置是计算机的CPU完成所有工作,但如果安装了GPU,将在这里看到它。如果GPU显存不够,可以将GPU想要处理多少层(从10-20开始)这会将一部分层使用GPU处理,这与llama.cpp的参数是一样的。还可以选择增加LLM使用的CPU线程数。默认值是4。这个也是需要根据本地计算机进行设置。

完成这些更改后,就可以使用本地LLM了。只需在“USER”字段中输入查询,LLM将响应为“AI”。

可以看到LM Studio提供了极好的体验,为ChatGPT提供了一个很好的本地替代方案。LM Studio提供了一种使用OpenAI兼容接口来提供模型的方便方法,这简化了与使用OpenAI作为后端的客户端的集成。

如果你正在寻找一种快速简便的方法来设置和使用具有不同开源模型的聊天或服务器供个人使用,LM Studio是一个很好的起点。

作者:Gene Bernardin

编辑:黄继彦

有时候下载过程可能会遇到网络问题,尤其是在国内,需要特别留意VPN的设置。

在需要高隐私保护的情况下,本地运行LLM显然比云端模型来得安全,因为数据不会被传输到第三方服务器。

如果你在偏远地区或者网络不稳定,但是又想使用模型生成内容,本地运行会是一个更有利的选择。

我觉得如果你是开发者,想要实验不同的开源模型进行调试和优化,本地版本会更灵活,因为你可以随时随地访问。

LM Studio的界面非常直观,操作步骤清晰,让新手也能快速上手。推荐给那些刚接触AI的人。

用户体验上来说,我觉得LM Studio有点儿儿戏,虽然好用,但视觉设计可以再提升一点,显得更专业一些。

我觉得LM Studio虽然方便,但对于一些高级用户来说,还是希望能有更多自定义选项,比如模型参数的更细致控制。

关于模型使用选择,初学者可能会困惑于不同模型的优劣,建议多查阅相关评价和使用心得,做出明智选择。

配置模型时,如果计算机规格不达标,可能会面临加载缓慢或者无法运行的尴尬情况,建议选前检查电脑配置。