Skip to main content
Model Context Protocol (MCP) 是一个开放协议, 能够实现 LLM 应用与外部数据源及 工具的无缝集成。无论您是在构建 AI 驱动的 IDE、增强聊天界面,还是创建 自定义 AI 工作流,MCP 都提供了一种标准化的方式,将 LLM 与它们所需的上下文 连接起来。 本规范定义了权威的协议要求,基于 2025-03-26 中的 TypeScript 模式 schema.ts 有关实施指南和示例,请访问 modelcontextprotocol.io 本文档中的关键词“MUST”、“MUST NOT”、“REQUIRED”、“SHALL”、“SHALL NOT”、“SHOULD”、“SHOULD NOT”、“RECOMMENDED”、“NOT RECOMMENDED”、“MAY”和“OPTIONAL”应按照 BCP 14 [RFC2119] [RFC8174] 中的描述进行解释,当且仅当它们 像此处所示全部以大写字母出现时。

概述

MCP 为应用提供了一种标准化的方式,用于:
  • 与大语言模型共享上下文信息
  • 向 AI 系统暴露工具和能力
  • 构建可组合的集成和工作流
该协议使用 JSON-RPC 2.0 消息来建立 以下各方之间的通信:
  • 宿主:发起连接的 LLM 应用
  • 客户端:宿主应用内的连接器
  • 服务器:提供上下文和服务的服务
MCP 从 Language Server Protocol 中获得了一些灵感,该协议 标准化了如何在整个开发工具生态系统中添加对编程语言的支持。类似地,MCP 标准化了如何将额外的上下文 和工具集成到 AI 应用生态系统中。

关键细节

基础协议

  • JSON-RPC 消息格式
  • 有状态连接
  • 服务器和客户端能力协商

功能

服务器向客户端提供以下任何功能:
  • 资源:供用户或 AI 模型使用的上下文和数据
  • 提示词:供用户使用的模板化消息和工作流
  • 工具:供 AI 模型执行的函数
客户端可以向服务器提供以下功能:
  • 采样:服务器发起的智能体行为和递归 LLM 交互

附加实用工具

  • 配置
  • 进度跟踪
  • 取消
  • 错误报告
  • 日志记录

安全与信任及安全

Model Context Protocol 通过任意数据访问 和代码执行路径实现了强大的功能。随着这种能力而来的是重要的安全和信任 考量,所有实现者都必须仔细解决。

关键原则

  1. 用户同意与控制
    • 用户必须明确同意并理解所有数据访问和操作
    • 用户必须保留对共享哪些数据以及采取哪些操作的控制权
    • 实现者应提供清晰的 UI 用于审查和授权活动
  2. 数据隐私
    • 宿主在向服务器暴露用户数据之前必须获得明确的用户同意
    • 宿主未经用户同意不得将资源数据传输到其他地方
    • 用户数据应受到适当的访问控制保护
  3. 工具安全
    • 工具代表任意代码执行,必须予以适当的 谨慎对待。
      • 特别是,工具行为的描述(如注解)应被视为 不可信,除非来自受信任的服务器。
    • 宿主在调用任何工具之前必须获得明确的用户同意
    • 用户在授权使用工具之前应了解每个工具的作用
  4. LLM 采样控制
    • 用户必须明确批准任何 LLM 采样请求
    • 用户应控制:
      • 是否发生采样
      • 将发送的实际提示词
      • 服务器可以看到哪些结果
    • 协议有意限制服务器对提示词的可见性

实施指南

虽然 MCP 本身无法在协议级别强制执行这些安全原则, 但实现者 应该
  1. 在其应用中构建稳健的同意和授权流程
  2. 提供有关安全影响的清晰文档
  3. 实施适当的访问控制和数据保护
  4. 在其集成中遵循安全最佳实践
  5. 在其功能设计中考虑隐私影响

了解更多

探索每个协议组件的详细规范:

架构

基础协议

服务器功能

客户端功能

贡献