技术架构文档企业级 AI 中台架构
企业级 AI 中台架构
Enterprise AI Middle Platform Architecture (AI 中台架构白皮书)
1. 愿景与目标
构建一个统一、可扩展的企业级 AI 基础设施 (AI PaaS),旨在:
- 降低接入成本:统一所有大模型(GPT-4, Claude, DeepSeek, Qwen)的调用接口,业务层无需关注底层差异。
- 沉淀数据资产:将企业非结构化数据转化为可被 AI 检索和推理的知识图谱 (Knowledge Graph)。
- 保障安全合规:在模型调用层统一实施 PII 脱敏、内容审计和成本控制。
- 赋能业务创新:通过可视化的 Agent 编排,快速孵化 GEO、智能客服、Copilot 等上层应用。
2. 总体架构图 (Architecture Overview)
3. 核心模块详解
3.1 模型网关 (Model Gateway)
目前已完成基础建设 (services/geo-brain/core/llm).
- 统一接口:所有模型通过
BaseLLM抽象类调用,支持流式 (chat_stream) 和非流式 (chat)。 - 工厂模式:
ModelFactory实现模型的按需加载和单例缓存。 - 适配器:
QwenLLM: 适配阿里通义千问 (支持联网插件)。ZhipuLLM: 适配智谱 GLM-4 (支持联网工具)。OpenAICompatible: 适配 GPT-4, DeepSeek, Kimi 等标准格式模型。
3.2 知识引擎 (Knowledge Engine) - Planned
- ETL Pipeline: 对 PDF, Word, HTML 进行清洗、分块 (Chunking)。
- RAG 增强: 结合关键词检索 (BM25) 和 向量检索 (Embedding) 提升召回率。
3.3 任务编排 (Orchestration) - InProgress
- RPA 调度中心: 管理
rpa-worker的任务分发、状态监控和结果回传。 - 当前痛点: 缺乏可视化监控面板,无法直观看到 Worker 运行状态。
4. 演进路线图 (Roadmap)
Phase 1: 基础设施标准化 (Current)
- 定义
BaseLLM和LLMResponse标准结构。 - 完成
Qwen和Zhipu的适配改造。 - 新增
OpenAI Generic适配器 (支持 DeepSeek, Moonshot 等)。 - 完善模型异常处理和重试机制。
Phase 2: 可观测性与治理 (Next)
- RPA 监控大屏: 在 Web 控制台展示爬虫任务队列和执行日志。
- Trace & Log: 记录每一次 Token 消耗和 Prompt 输入输出。
Phase 3: 知识中台能力
- 引入
Qdrant向量数据库。 - 实现文档上传与自动 RAG 索引构建。
5. 开发者指南
调用模型
新增模型支持
- 在
core/llm/providers下新建<model>.py。 - 继承
BaseLLM并实现chat方法。 - 在
core/llm/factory.py中注册。