将您的应用暴露给任意 AI

为您的 Nuxt 应用添加模型上下文协议(MCP)服务器。以类似 Nitro 的开发体验,将您的功能连接到 AI 客户端。

让您的应用对 AI 开放

使用模型上下文协议来标准化 LLM 与您的 Nuxt 应用的交互方式。
  • 类 Nitro API
    使用 defineMcpTool 和 defineMcpResource 等熟悉的模式。感觉就像在编写 API 路由。
  • 零配置
    自动发现工具、资源和提示词。只需在 server/mcp 目录中创建文件即可。
  • 类型安全工具
    使用 Zod 模式定义工具并支持完整的 TypeScript 类型推断。无需再猜测参数类型。
  • 标准兼容
    基于官方 MCP SDK 构建,确保与 Claude、Cursor、ChatGPT 等所有 MCP 客户端兼容。
  • 代码模式
    让 LLM 在安全的 V8 沙箱中编写 JavaScript 来编排工具。最多可减少 82% 的 Token 开销。
  • 中间件
    拦截请求以添加身份验证、日志记录和速率限制。从您的工具中访问事件上下文。
  • 内置缓存
    使用 Nitro 缓存工具和资源的响应。只需在任何定义中添加 cache: '1h' 即可。
  • 会话
    使用 useMcpSession() 在工具调用之间持久化状态。构建多步骤工作流并跟踪对话。
  • 动态定义
    通过启用守卫为不同用户显示不同的工具。基于身份验证、角色或上下文控制可见性。
  • 一键安装
    提供 InstallButton 组件、SVG 徽章和深度链接,让用户能够立即将您的 MCP 服务器添加到他们的 IDE 中。
  • 多处理器
    创建具有各自工具、资源和配置的独立 MCP 端点。按领域或版本进行组织。
  • 评估测试
    使用 AI SDK 和 Evalite 验证 LLM 是否调用了正确的工具。在问题进入生产环境前捕获回归。
  • 智能体技能
    借助 Agent Skills 规范,让 AI 助手帮助您构建、审查和排查 MCP 服务器问题。
  • 分组与标签
    使用标签将工具、资源和提示词组织成组。可从子目录自动推断或显式设置。
  • 集成开发工具
    使用内置检查器实时调试您的 MCP 服务器。查看工具、资源、提示词、连接和日志。
  • 立即开始构建

只需编写代码

使用标准的 TypeScript 文件定义工具、资源和提示词。无需复杂的配置或样板代码。
  • 工具
    创建可执行函数,使 AI 模型能够执行操作并检索信息。
  • 资源
    共享数据,如文件、数据库记录或 API 响应,作为 AI 模型的上下文。
  • 提示词
    构建可重用的模板和工作流,以指导 AI 交互并标准化使用。

内置检查器

实时调试您的 MCP 服务器。查看已注册的工具、资源和提示词,并监控客户端连接和请求日志。
Nuxt MCP 开发工具

准备好构建您的第一个 MCP 服务器了吗?

通过我们全面的指南和示例,在几分钟内快速上手。