思渡AI Logo
技术架构文档企业级 AI 中台架构

企业级 AI 中台架构

Enterprise AI Middle Platform Architecture (AI 中台架构白皮书)

1. 愿景与目标

构建一个统一、可扩展的企业级 AI 基础设施 (AI PaaS),旨在:

  • 降低接入成本:统一所有大模型(GPT-4, Claude, DeepSeek, Qwen)的调用接口,业务层无需关注底层差异。
  • 沉淀数据资产:将企业非结构化数据转化为可被 AI 检索和推理的知识图谱 (Knowledge Graph)。
  • 保障安全合规:在模型调用层统一实施 PII 脱敏、内容审计和成本控制。
  • 赋能业务创新:通过可视化的 Agent 编排,快速孵化 GEO、智能客服、Copilot 等上层应用。

2. 总体架构图 (Architecture Overview)

graph TD
    subgraph "Application Layer (SaaS Applications)"
        A1[GEO Marketing]
        A2[Smart Customer Service]
        A3[Internal Knowledge Base]
        A4[Coding Copilot]
    end

    subgraph "AI Middle Platform (PaaS)"
        subgraph "Agent & Orchestration Layer"
            B1[Workflow Engine]
            B2[RPA Scheduler]
            B3[Agent Memory]
        end

        subgraph "Knowledge & RAG Layer"
            C1[Unstructured ETL]
            C2[Vector Database (Qdrant)]
            C3[Knowledge Graph (Neo4j)]
            C4[Hybrid Search]
        end

        subgraph "Model Gateway Layer (MaaS)"
            D1[Unified API Gateway]
            D2[Model Router]
            D3[Guardrails (Security/Audit)]
            D4[Prompt Management]
        end
    end

    subgraph "Infrastructure Layer (IaaS)"
        E1[OpenAI / Azure]
        E2[Aliyun Qwen]
        E3[Zhipu AI]
        E4[Local LLM (DeepSeek/Llama)]
    end

    A1 --> B1
    A1 --> B2
    B1 --> C4
    B1 --> D1
    C4 --> D1
    D1 --> E1
    D1 --> E2
    D2 --> E3

3. 核心模块详解

3.1 模型网关 (Model Gateway)

目前已完成基础建设 (services/geo-brain/core/llm).

  • 统一接口:所有模型通过 BaseLLM 抽象类调用,支持流式 (chat_stream) 和非流式 (chat)。
  • 工厂模式: ModelFactory 实现模型的按需加载和单例缓存。
  • 适配器:
    • QwenLLM: 适配阿里通义千问 (支持联网插件)。
    • ZhipuLLM: 适配智谱 GLM-4 (支持联网工具)。
    • OpenAICompatible: 适配 GPT-4, DeepSeek, Kimi 等标准格式模型。

3.2 知识引擎 (Knowledge Engine) - Planned

  • ETL Pipeline: 对 PDF, Word, HTML 进行清洗、分块 (Chunking)。
  • RAG 增强: 结合关键词检索 (BM25) 和 向量检索 (Embedding) 提升召回率。

3.3 任务编排 (Orchestration) - InProgress

  • RPA 调度中心: 管理 rpa-worker 的任务分发、状态监控和结果回传。
  • 当前痛点: 缺乏可视化监控面板,无法直观看到 Worker 运行状态。

4. 演进路线图 (Roadmap)

Phase 1: 基础设施标准化 (Current)

  • 定义 BaseLLMLLMResponse 标准结构。
  • 完成 QwenZhipu 的适配改造。
  • 新增 OpenAI Generic 适配器 (支持 DeepSeek, Moonshot 等)。
  • 完善模型异常处理和重试机制。

Phase 2: 可观测性与治理 (Next)

  • RPA 监控大屏: 在 Web 控制台展示爬虫任务队列和执行日志。
  • Trace & Log: 记录每一次 Token 消耗和 Prompt 输入输出。

Phase 3: 知识中台能力

  • 引入 Qdrant 向量数据库。
  • 实现文档上传与自动 RAG 索引构建。

5. 开发者指南

调用模型

from core.llm.factory import ModelFactory

# 获取模型实例 (单例)
llm = ModelFactory.get_provider("qwen", model="qwen-max")

# 统一调用
response = llm.chat([
    {"role": "user", "content": "Analyze this brand..."}
], enable_search=True)

print(response.content)
print(response.usage)

新增模型支持

  1. core/llm/providers 下新建 <model>.py
  2. 继承 BaseLLM 并实现 chat 方法。
  3. core/llm/factory.py 中注册。