Skip to main content
模型上下文协议 (MCP) 是一个开放协议, 能够实现 LLM 应用与外部数据源及 工具的无缝集成。无论您是在构建 AI 驱动的 IDE、增强聊天界面,还是创建 自定义 AI 工作流,MCP 都提供了一种标准化的方式,将 LLM 与他们所需的上下文 连接起来。 本规范定义了权威的协议要求,基于 TypeScript 架构,位于 schema.ts 如需实施指南和示例,请访问 modelcontextprotocol.io 本文档中的关键词“MUST”、“MUST NOT”、“REQUIRED”、“SHALL”、“SHALL NOT”、“SHOULD”、“SHOULD NOT”、“RECOMMENDED”、“NOT RECOMMENDED”、“MAY”和“OPTIONAL”当且仅当它们像此处所示全部大写时,应按照 BCP 14 [RFC2119] [RFC8174] 中的描述进行解释。

概述

MCP 为应用提供了一种标准化的方式,用于:
  • 与语言模型共享上下文信息
  • 向 AI 系统暴露工具和能力
  • 构建可组合的集成和工作流
该协议使用 JSON-RPC 2.0 消息来建立 以下各方之间的通信:
  • 宿主:发起连接的 LLM 应用
  • 客户端:宿主应用内的连接器
  • 服务器:提供上下文和能力的服务
MCP 从 语言服务器协议 中获得了一些灵感,该协议 标准化了如何在整个开发工具生态系统中添加对编程语言的支持。类似地,MCP 标准化了如何将额外的上下文 和工具集成到 AI 应用生态系统中。

关键细节

基础协议

  • JSON-RPC 消息格式
  • 有状态连接
  • 服务器和客户端能力协商

功能

服务器向客户端提供以下任何功能:
  • 资源:供用户或 AI 模型使用的上下文和数据
  • 提示词:供用户使用的模板化消息和工作流
  • 工具:供 AI 模型执行的函数
客户端可以向服务器提供以下功能:
  • 采样:服务器发起的代理行为和递归 LLM 交互
  • 根路径:服务器发起的关于操作所在的 URI 或文件系统位置的查询
  • 用户询问:服务器发起的向用户请求额外信息

附加实用功能

  • 配置
  • 进度跟踪
  • 取消
  • 错误报告
  • 日志记录

安全与信任

模型上下文协议通过任意数据访问 和代码执行路径实现了强大的功能。伴随着这种能力而来的是重要的安全和信任 考量,所有实现者都必须仔细解决。

关键原则

  1. 用户同意与控制
    • 用户必须明确同意并理解所有数据访问和操作
    • 用户必须保留对共享什么数据以及采取什么行动的控制权
    • 实现者应提供清晰的 UI 用于审查和授权活动
  2. 数据隐私
    • 宿主在向服务器暴露用户数据之前必须获得明确的用户同意
    • 未经用户同意,宿主不得将资源数据传输到其他地方
    • 用户数据应受到适当的访问控制保护
  3. 工具安全
    • 工具代表任意代码执行,必须予以适当的 谨慎对待。
      • 特别是,工具行为的描述(如注解)应被视为不可信,除非来自受信任的服务器。
    • 宿主在调用任何工具之前必须获得明确的用户同意
    • 用户在授权使用工具之前应了解每个工具的作用
  4. LLM 采样控制
    • 用户必须明确批准任何 LLM 采样请求
    • 用户应控制:
      • 是否发生采样
      • 将发送的实际提示词
      • 服务器可以看到什么结果
    • 协议有意限制服务器对提示词的可见性

实施指南

虽然 MCP 本身无法在协议级别强制执行这些安全原则, 实现者 应该
  1. 在其应用中构建稳健的同意和授权流程
  2. 提供清晰的安全影响文档
  3. 实施适当的访问控制和数据保护
  4. 在其集成中遵循安全最佳实践
  5. 在其功能设计中考虑隐私影响

了解更多

探索每个协议组件的详细规范:

架构

基础协议

服务器功能

客户端功能

贡献