用户交互模型
MCP 中的采样允许服务器实现代理行为,通过使 LLM 调用能够 嵌套 发生在其他 MCP 服务器功能内部。 实现可以自由地通过任何适合其需求的接口模式来暴露采样——协议本身不强制任何特定的用户交互模型。能力
支持采样的客户端 必须 在 初始化 期间声明sampling 能力:
协议消息
创建消息
要请求语言模型生成,服务器发送一个sampling/createMessage 请求:
请求:
消息流程
数据类型
消息
采样消息可以包含:文本内容
图像内容
音频内容
模型偏好
MCP 中的模型选择需要仔细抽象,因为服务器和客户端可能使用具有不同模型产品的不同 AI 提供商。服务器不能简单地按名称请求特定模型,因为客户端可能无法访问该确切模型,或者可能更喜欢使用不同提供商的等效模型。 为了解决这个问题,MCP 实现了一个偏好系统,结合了抽象能力优先级和可选模型提示:能力优先级
服务器通过三个归一化的优先级值 (0-1) 表达其需求:costPriority:最小化成本有多重要?较高的值偏好更便宜的模型。speedPriority:低延迟有多重要?较高的值偏好更快的模型。intelligencePriority:高级能力有多重要?较高的值偏好能力更强的模型。
模型提示
虽然优先级有助于根据特征选择模型,但hints 允许服务器建议特定模型或模型系列:
- 提示被视为子字符串,可以灵活匹配模型名称
- 多个提示按偏好顺序评估
- 客户端 可以 将提示映射到不同提供商的等效模型
- 提示是建议性的——客户端进行最终模型选择
gemini-1.5-pro。
错误处理
客户端 应该 为常见失败情况返回错误: 错误示例:安全考量
- 客户端 应该 实现用户审批控制
- 双方 应该 验证消息内容
- 客户端 应该 尊重模型偏好提示
- 客户端 应该 实现速率限制
- 双方 必须 妥善处理敏感数据