思渡AI Logo
产品手册AI中台

AI中台

统一的企业级 AI 中台基础设施 (AI PaaS),赋能上层应用快速构建。

产品简介

AI Middle Platform 是企业级 AI 基础设施 (AI PaaS),旨在降低接入成本、沉淀数据资产并保障安全合规。它是连接底层大模型能力与上层业务应用(如 GEO、智能客服、Copilot)的桥梁。

核心架构

1. 模型网关 (MaaS Layer)

统一的 API 网关,屏蔽底层大模型的差异。

  • 统一接口: 一键切换 GPT-4, Qwen, DeepSeek 或 Claude,业务代码无需修改。
  • 安全护栏: 内置 PII 脱敏、内容审计和成本控制策略。
  • 智能路由: 根据任务复杂度,自动将请求路由至性价比最高或响应最快的模型。

2. 知识引擎 (Knowledge Engine)

非结构化数据处理的中央大脑。

  • ETL 管道: 清洗并切分 PDF, Word, HTML 等文档。
  • 混合检索: 结合关键词检索 (BM25) 和 向量检索 (Embedding) 以实现高精度的 RAG 检索。
  • 向量数据库: 集成 Qdrant/Milvus 集群以支持海量数据索引。

3. 任务编排 (Agent Orchestration)

可视化的数字员工编排引擎。

  • 工作流引擎: 定义复杂的 SOP (标准作业程序)。
  • RPA 调度中心: 管理和监控 RPA 机器人的任务执行(如数据抓取、表单填报)。

常见问题 (FAQ)

  • Q: 模型服务出现 504 超时怎么办?
    • A: 请先检查您的 Worker Scaler (扩容策略) 设定的最大实例数。对于长上下文请求,请将 timeouts 设置为 120s 以上。
  • Q: 支持私有化部署吗?
    • A: 我们的中台完全支持 Docker/Kubernetes 私有化部署。
  • Q: 如何接入自定义模型(如 Llama 3)?
    • A: 在“模型注册中心”,上传您的 Hugging Face 权重文件和 tokenizer.json。平台将自动封装为 RESTful API。

开发者体验

SDK 接入

开发者使用统一的 ModelFactory 调用 AI 能力,无需为每个供应商管理 API Key。

# 一行代码调用任意模型
llm = ModelFactory.get_provider("qwen", model="qwen-max")
response = llm.chat(messages, enable_search=True)

知识配置

在控制台上传文档,平台自动处理解析、嵌入和索引构建。

Agent 部署

绑定 Prompt、知识库和工具集 (Skills),快速发布专属于特定业务场景的 Agent API。

平台配置指南

1. 模型接入

  • API Key 管理: 在“模型网关”页面配置各大厂商(OpenAI, Aliyun, Zhipu)的 API Key。
  • 成本控制: 设置每个租户或应用的每日 Token 消耗上限。支持设置“异常熔断”阈值。

2. 知识引擎

  • 文档清洗: 配置 ETL 规则,例如自动去除页眉页脚、去除水印。
  • 混合检索: 调整 Hybrid Search 的权重参数(如:关键词 0.3 + 向量 0.7),针对不同业务场景优化召回率。

最佳实践

  • Prompt 工程: 在“Prompt 管理中心”使用版本控制管理 System Prompt。生产环境只引用 Pro 版本的 Tag,开发环境使用 Dev 版本。
  • 流式响应 (Streaming): 为了提升用户体验,务必在前端开启 stream=True 模式,实现打字机效果,降低首字延迟 (TTFT)。
  • 安全审计: 定期查看“内容安全日志”,排查是否有用户输入敏感词或模型输出违规内容。