跳转至

ContextHub-200

基本信息

  • 开发者/组织:MultiModel AI
  • 许可证:商业许可
  • 版本:v3.3.1
  • 发布日期:2023-10-12
  • 官方网站:https://contexthub-200.example.com
  • 源代码仓库:https://github.com/multimodel-ai/contexthub-200

功能特点

ContextHub-200是一款专业的MCP服务器,具有以下主要特点:

  • 低延迟响应:支持高效的低延迟响应能力
  • 企业级安全:支持高效的企业级安全能力
  • 分布式架构支持:支持高效的分布式架构支持能力

技术规格

  • 支持的模型:Claude 3 Opus, Yi-34B
  • 部署方式:Azure Functions, Google Cloud Functions, AWS Lambda
  • 语言/框架:Python / 原生实现
  • 性能指标:每秒处理约984请求,平均延迟<462ms

API示例

// 查询请求示例
{
  "model": "yi-34b",
  "query": "用户查询内容",
  "context_sources": [
    {
      "type": "document",
      "id": "resource-id",
      "sections": ["section1", "section2"]
    },
    {
      "type": "database",
      "id": "db-source",
      "query": "SELECT * FROM data WHERE topic='query'"
    }
  ],
  "response_format": "text"
}

使用案例

  1. 研究数据分析:利用ContextHub-200提供的企业级安全能力,实现高效的研究数据分析
  2. 实时决策支持:利用ContextHub-200提供的低延迟响应能力,实现高效的实时决策支持

配置示例

server:
  host: 0.0.0.0
  port: 8773
  threads: 32

security:
  auth_required: true
  rate_limiting: true
  max_requests_per_minute: 4087

models:
  - name: "claude-3"
    provider: "anthropic"
    api_key: "${{ANTHROPIC_API_KEY}}"

connectors:
  - type: "document_store"
    id: "main_docs"
    url: "http://docs-server:9200"
  - type: "vector_db"
    id: "embeddings"
    url: "http://vector-db:6333"