产品手册AI中台
AI中台
统一的企业级 AI 中台基础设施 (AI PaaS),赋能上层应用快速构建。
产品简介
AI Middle Platform 是企业级 AI 基础设施 (AI PaaS),旨在降低接入成本、沉淀数据资产并保障安全合规。它是连接底层大模型能力与上层业务应用(如 GEO、智能客服、Copilot)的桥梁。
核心架构
1. 模型网关 (MaaS Layer)
统一的 API 网关,屏蔽底层大模型的差异。
- 统一接口: 一键切换 GPT-4, Qwen, DeepSeek 或 Claude,业务代码无需修改。
- 安全护栏: 内置 PII 脱敏、内容审计和成本控制策略。
- 智能路由: 根据任务复杂度,自动将请求路由至性价比最高或响应最快的模型。
2. 知识引擎 (Knowledge Engine)
非结构化数据处理的中央大脑。
- ETL 管道: 清洗并切分 PDF, Word, HTML 等文档。
- 混合检索: 结合关键词检索 (BM25) 和 向量检索 (Embedding) 以实现高精度的 RAG 检索。
- 向量数据库: 集成 Qdrant/Milvus 集群以支持海量数据索引。
3. 任务编排 (Agent Orchestration)
可视化的数字员工编排引擎。
- 工作流引擎: 定义复杂的 SOP (标准作业程序)。
- RPA 调度中心: 管理和监控 RPA 机器人的任务执行(如数据抓取、表单填报)。
常见问题 (FAQ)
- Q: 模型服务出现 504 超时怎么办?
- A: 请先检查您的 Worker Scaler (扩容策略) 设定的最大实例数。对于长上下文请求,请将 timeouts 设置为 120s 以上。
- Q: 支持私有化部署吗?
- A: 我们的中台完全支持 Docker/Kubernetes 私有化部署。
- Q: 如何接入自定义模型(如 Llama 3)?
- A: 在“模型注册中心”,上传您的 Hugging Face 权重文件和 tokenizer.json。平台将自动封装为 RESTful API。
开发者体验
SDK 接入
开发者使用统一的 ModelFactory 调用 AI 能力,无需为每个供应商管理 API Key。
知识配置
在控制台上传文档,平台自动处理解析、嵌入和索引构建。
Agent 部署
绑定 Prompt、知识库和工具集 (Skills),快速发布专属于特定业务场景的 Agent API。
平台配置指南
1. 模型接入
- API Key 管理: 在“模型网关”页面配置各大厂商(OpenAI, Aliyun, Zhipu)的 API Key。
- 成本控制: 设置每个租户或应用的每日 Token 消耗上限。支持设置“异常熔断”阈值。
2. 知识引擎
- 文档清洗: 配置 ETL 规则,例如自动去除页眉页脚、去除水印。
- 混合检索: 调整
Hybrid Search的权重参数(如:关键词 0.3 + 向量 0.7),针对不同业务场景优化召回率。
最佳实践
- Prompt 工程: 在“Prompt 管理中心”使用版本控制管理 System Prompt。生产环境只引用
Pro版本的 Tag,开发环境使用Dev版本。 - 流式响应 (Streaming): 为了提升用户体验,务必在前端开启
stream=True模式,实现打字机效果,降低首字延迟 (TTFT)。 - 安全审计: 定期查看“内容安全日志”,排查是否有用户输入敏感词或模型输出违规内容。