跳到主要内容

8.1 连接大语言模型

IDMP 中的大多数 AI 功能——面板生成、分析建议、AI 问答、根因分析——都需要连接外部大语言模型(LLM)。IDMP 使用 OpenAI 兼容接口,因此任何提供 OpenAI 兼容 API 的大语言模型服务商或自托管模型均可使用。

内置试用连接

IDMP 内置了一个在安装后 15 天内有效的试用 AI 连接。在试用期内,所有依赖大语言模型的 AI 功能无需任何配置即可立即使用。试用到期后,您必须配置自己的 AI 连接才能继续使用这些功能。

基于 TDgpt 的功能(异常检测、预测、缺失数据填补)与大语言模型连接无关,它们需要与 IDMP 一同安装 TDgpt 模块。

配置 AI 连接

AI 连接在系统设置的连接管理部分进行管理,与 TDengine 数据连接并列。

添加或编辑 AI 连接的步骤:

  1. 导航至设置连接管理
  2. 点击 + 添加连接,选择 AI 连接类型。
  3. 填写连接字段:
字段说明
连接名称用于标识此 AI 连接的唯一名称
API 端点OpenAI 兼容 API 的基础 URL(例如 https://api.openai.com/v1
API 密钥API 的身份验证密钥。对于不需要身份验证的本地部署,留空即可。
问答模型用于标准自然语言查询及面板/分析生成的模型(例如 gpt-4o
深度思考模型用于需要扩展推理的复杂分析任务的模型,例如根因分析(例如 o1o3
  1. 点击测试连接以验证端点和凭证。
  2. 点击保存

双模型配置

IDMP 从同一 AI 连接中使用两个独立的模型:

  • 问答模型 — 处理日常交互:回答自然语言查询、生成面板建议、创建分析配置以及叙述面板洞察。该模型应具备速度快、成本低的特点。
  • 深度思考模型 — 处理受益于扩展推理链的计算密集型任务,最典型的是根因分析。该模型可以更慢、更昂贵;仅在明确请求深度分析时才会被调用。

在 AI 问答界面中,用户可以切换深度思考模式,将查询路由到深度思考模型而非问答模型。

本地部署

对于运行自托管大语言模型(如本地部署的 Ollama 或 vLLM 实例)的组织,将 API 端点设置为本地服务 URL,如果服务不需要身份验证则将 API 密钥留空。只要服务公开 OpenAI 兼容的 API,所有 IDMP AI 功能均可正常工作,无需任何修改。

关闭 AI 功能

如需在全系统范围内关闭 AI 功能,点击浏览器右上角的头像图标,进入管理后台(Admin Console),将 AI 连接暂停或删除即可。

您也可以在分析列表或面板列表页直接关闭 AI 推荐。