在 Kilo Code 中使用 LM Studio
Kilo Code 支持使用 LM Studio 在本地运行模型。LM Studio 提供了一个用户友好的界面,用于下载、配置和运行本地语言模型。它还包括一个内置的本地推理服务器,模拟 OpenAI API,使其易于与 Kilo Code 集成。
设置 LM Studio
-
下载并安装 LM Studio: 从 LM Studio 网站下载 LM Studio。
-
下载模型: 使用 LM Studio 界面搜索并下载模型。一些推荐的模型包括:
- CodeLlama 模型(例如,
codellama:7b-code
、codellama:13b-code
、codellama:34b-code
) - Mistral 模型(例如,
mistralai/Mistral-7B-Instruct-v0.1
) - DeepSeek Coder 模型(例如,
deepseek-coder:6.7b-base
) - 任何其他受 Kilo Code 支持的模型,或者您可以设置上下文窗口的模型。
查找 GGUF 格式的模型。LM Studio 提供搜索界面以查找和下载模型。
- CodeLlama 模型(例如,
-
启动本地服务器:
- 打开 LM Studio。
- 单击“本地服务器”选项卡(图标看起来像
<->
)。 - 选择您下载的模型。
- 单击“启动服务器”。
Kilo Code 中的配置
- 打开 Kilo Code 设置: 单击 Kilo Code 面板中的齿轮图标()。
- 选择提供商: 从“API 提供商”下拉菜单中选择“LM Studio”。
- 输入模型 ID: 输入您在 LM Studio 中加载的模型的文件名(例如,
codellama-7b.Q4_0.gguf
)。您可以在 LM Studio 的“本地服务器”选项卡中找到此信息。 - (可选)基本 URL: 默认情况下,Kilo Code 将连接到
http://localhost:1234
处的 LM Studio。如果您已将 LM Studio 配置为使用不同的地址或端口,请在此处输入完整的 URL。
提示和注意事项
- 资源要求: 在本地运行大型语言模型可能资源密集。确保您的计算机满足您选择的模型的最低要求。
- 模型选择: LM Studio 提供各种模型。尝试找到最适合您需求的模型。
- 本地服务器: LM Studio 本地服务器必须运行,Kilo Code 才能连接到它。
- LM Studio 文档: 有关更多信息,请参阅 LM Studio 文档。
- 故障排除: 如果您看到“请检查 LM Studio 开发人员日志以调试出了什么问题”错误,您可能需要调整 LM Studio 中的上下文长度设置。