LLM 模块配置与使用
配置文件 (modules/llm.yml)
此文件用于配置插件连接的 AI 服务提供商和具体的语言模型。
default-model
- 类型:
字符串 - 必需: 是
- 描述: 指定插件默认使用的 AI 模型 ID。这个 ID 必须是在下面的
models部分定义的某个模型的 ID。 - 示例:
siliconflow-deepseek-v3
providers
- 类型:
对象映射 (Map) - 必需: 是
- 描述: 定义一个或多个 AI 服务提供商。每个提供商都需要一个唯一的标识符作为键 (例如
siliconflow)。
提供商配置项
对于 providers 下的每一个提供商 (例如 siliconflow):
name:- 类型:
字符串 - 必需: 否
- 描述: 提供商的友好显示名称。
- 示例:
"硅基流动"
- 类型:
type:- 类型:
字符串 - 必需: 是
- 描述: 指定该提供商 API 所遵循的格式。目前支持的格式可能包括
openai等 (具体支持类型需参考插件实现)。这决定了插件如何与该 API 进行通信。 - 示例:
openai
- 类型:
baseUrl:- 类型:
字符串 - 必需: 是
- 描述: 该 AI 服务提供商 API 的基础 URL。
- 示例:
https://api.siliconflow.cn/v1
- 类型:
apiKey:- 类型:
字符串 - 必需: 是
- 描述: 用于访问该提供商 API 的密钥。强烈建议使用环境变量来存储敏感的 API 密钥。你可以使用
${环境变量名}的格式来引用环境变量。 - 示例:
${SILICONFLOW_API_KEY}(表示从名为SILICONFLOW_API_KEY的环境变量中读取值)
- 类型:
models
- 类型:
对象映射 (Map) - 必需: 是
- 描述: 定义一个或多个可用的 AI 模型。每个模型都需要一个唯一的标识符作为键 (例如
siliconflow-deepseek-v3),这个标识符将用于default-model或其他需要指定模型的地方。
模型配置项
对于 models 下的每一个模型 (例如 siliconflow-deepseek-v3):
id:- 类型:
字符串 - 必需: 是
- 描述: 实际调用提供商 API 时使用的模型标识符。
- 示例:
"deepseek-ai/DeepSeek-V3"
- 类型:
provider:- 类型:
字符串 - 必需: 是
- 描述: 指定该模型属于哪个提供商。这个值必须是上面
providers部分定义的某个提供商的 ID。 - 示例:
siliconflow
- 类型:
name:- 类型:
字符串 - 必需: 否
- 描述: 模型的友好显示名称。
- 示例:
"DeepSeek-V3"
- 类型:
description:- 类型:
字符串 - 必需: 否
- 描述: 对该模型的简短描述。
- 示例:
"硅基流动提供的DeepSeek-V3模型"
- 类型:
示例配置
# AI服务配置
# 默认模型
default-model: siliconflow-deepseek-v3
# 提供商配置
providers:
# 硅基流动提供商
siliconflow:
name: "硅基流动"
type: openai # 使用OpenAI格式
baseUrl: https://api.siliconflow.cn/v1
apiKey: ${SILICONFLOW_API_KEY}
# 模型配置
models:
# 硅基流动模型
siliconflow-deepseek-v3:
id: "deepseek-ai/DeepSeek-V3" # 实际请求使用的模型ID
provider: siliconflow # 使用的提供商
name: "DeepSeek-V3"
description: "硅基流动提供的DeepSeek-V3模型"
本页介绍 Knowlith 的 LLM (大型语言模型) 模块。
(待补充)