跳转到主要内容

在 Kilo Code 中使用 LM Studio

Kilo Code 支持使用 LM Studio 在本地运行模型。LM Studio 提供了一个用户友好的界面,用于下载、配置和运行本地语言模型。它还包括一个内置的本地推理服务器,模拟 OpenAI API,使其易于与 Kilo Code 集成。

网站: https://lmstudio.ai/

设置 LM Studio

  1. 下载并安装 LM Studio:LM Studio 网站下载 LM Studio。

  2. 下载模型: 使用 LM Studio 界面搜索并下载模型。一些推荐的模型包括:

    • CodeLlama 模型(例如,codellama:7b-codecodellama:13b-codecodellama:34b-code
    • Mistral 模型(例如,mistralai/Mistral-7B-Instruct-v0.1
    • DeepSeek Coder 模型(例如,deepseek-coder:6.7b-base
    • 任何其他受 Kilo Code 支持的模型,或者您可以设置上下文窗口的模型。

    查找 GGUF 格式的模型。LM Studio 提供搜索界面以查找和下载模型。

  3. 启动本地服务器:

    • 打开 LM Studio。
    • 单击“本地服务器”选项卡(图标看起来像 <->)。
    • 选择您下载的模型。
    • 单击“启动服务器”。

Kilo Code 中的配置

  1. 打开 Kilo Code 设置: 单击 Kilo Code 面板中的齿轮图标()。
  2. 选择提供商: 从“API 提供商”下拉菜单中选择“LM Studio”。
  3. 输入模型 ID: 输入您在 LM Studio 中加载的模型的文件名(例如,codellama-7b.Q4_0.gguf)。您可以在 LM Studio 的“本地服务器”选项卡中找到此信息。
  4. (可选)基本 URL: 默认情况下,Kilo Code 将连接到 http://localhost:1234 处的 LM Studio。如果您已将 LM Studio 配置为使用不同的地址或端口,请在此处输入完整的 URL。

提示和注意事项

  • 资源要求: 在本地运行大型语言模型可能资源密集。确保您的计算机满足您选择的模型的最低要求。
  • 模型选择: LM Studio 提供各种模型。尝试找到最适合您需求的模型。
  • 本地服务器: LM Studio 本地服务器必须运行,Kilo Code 才能连接到它。
  • LM Studio 文档: 有关更多信息,请参阅 LM Studio 文档
  • 故障排除: 如果您看到“请检查 LM Studio 开发人员日志以调试出了什么问题”错误,您可能需要调整 LM Studio 中的上下文长度设置。