跳到主要内容

LLM 模块配置与使用

配置文件 (modules/llm.yml)

此文件用于配置插件连接的 AI 服务提供商和具体的语言模型。

default-model

  • 类型: 字符串
  • 必需:
  • 描述: 指定插件默认使用的 AI 模型 ID。这个 ID 必须是在下面的 models 部分定义的某个模型的 ID。
  • 示例: siliconflow-deepseek-v3

providers

  • 类型: 对象映射 (Map)
  • 必需:
  • 描述: 定义一个或多个 AI 服务提供商。每个提供商都需要一个唯一的标识符作为键 (例如 siliconflow)。

提供商配置项

对于 providers 下的每一个提供商 (例如 siliconflow):

  • name:
    • 类型: 字符串
    • 必需:
    • 描述: 提供商的友好显示名称。
    • 示例: "硅基流动"
  • type:
    • 类型: 字符串
    • 必需:
    • 描述: 指定该提供商 API 所遵循的格式。目前支持的格式可能包括 openai 等 (具体支持类型需参考插件实现)。这决定了插件如何与该 API 进行通信。
    • 示例: openai
  • baseUrl:
    • 类型: 字符串
    • 必需:
    • 描述: 该 AI 服务提供商 API 的基础 URL。
    • 示例: https://api.siliconflow.cn/v1
  • apiKey:
    • 类型: 字符串
    • 必需:
    • 描述: 用于访问该提供商 API 的密钥。强烈建议使用环境变量来存储敏感的 API 密钥。你可以使用 ${环境变量名} 的格式来引用环境变量。
    • 示例: ${SILICONFLOW_API_KEY} (表示从名为 SILICONFLOW_API_KEY 的环境变量中读取值)

models

  • 类型: 对象映射 (Map)
  • 必需:
  • 描述: 定义一个或多个可用的 AI 模型。每个模型都需要一个唯一的标识符作为键 (例如 siliconflow-deepseek-v3),这个标识符将用于 default-model 或其他需要指定模型的地方。

模型配置项

对于 models 下的每一个模型 (例如 siliconflow-deepseek-v3):

  • id:
    • 类型: 字符串
    • 必需:
    • 描述: 实际调用提供商 API 时使用的模型标识符。
    • 示例: "deepseek-ai/DeepSeek-V3"
  • provider:
    • 类型: 字符串
    • 必需:
    • 描述: 指定该模型属于哪个提供商。这个值必须是上面 providers 部分定义的某个提供商的 ID。
    • 示例: siliconflow
  • name:
    • 类型: 字符串
    • 必需:
    • 描述: 模型的友好显示名称。
    • 示例: "DeepSeek-V3"
  • description:
    • 类型: 字符串
    • 必需:
    • 描述: 对该模型的简短描述。
    • 示例: "硅基流动提供的DeepSeek-V3模型"

示例配置

# AI服务配置

# 默认模型
default-model: siliconflow-deepseek-v3

# 提供商配置
providers:
# 硅基流动提供商
siliconflow:
name: "硅基流动"
type: openai # 使用OpenAI格式
baseUrl: https://api.siliconflow.cn/v1
apiKey: ${SILICONFLOW_API_KEY}

# 模型配置
models:
# 硅基流动模型
siliconflow-deepseek-v3:
id: "deepseek-ai/DeepSeek-V3" # 实际请求使用的模型ID
provider: siliconflow # 使用的提供商
name: "DeepSeek-V3"
description: "硅基流动提供的DeepSeek-V3模型"

本页介绍 Knowlith 的 LLM (大型语言模型) 模块。

(待补充)