核心方案摘要

本方案旨在解决“如何低成本、自托管地实现类似‘秒搭’的一句话生成应用”的需求。核心思路是利用 LLM(大语言模型) 作为大脑,MCP (Model Context Protocol) 作为标准化工具接口(连接本地文件、数据库、API),并配合 WebContainersSandpack 实现浏览器端的实时代码预览与运行。

01. 核心交互
Prompt -> 意图识别 -> 工具调度
02. 关键技术
MCP Server, Vercel AI SDK, WebContainers
03. 交付物
可下载的完整 React/Vue 源码包

架构蓝图:原子化生成系统

点击下方节点查看各模块的技术选型与实现逻辑。

INPUT 用户自然语言指令

LLM 编排层 (Orchestrator)

意图分析 & 任务拆解

MCP Client & Servers

文件系统 / 搜索 / API连接

WebContainer 沙箱环境

浏览器内 Node.js 运行时 (实时预览)

⚡️
System Module

请选择左侧模块

点击架构图中的节点,查看详细技术实现方案和推荐使用的开源库。

Self-Hosted-Builder v1.0
Simulating Environment...
# 等待指令输入...

技术路线对比分析

自建方案 vs SaaS vs 传统开发

结论: 自建 MCP 方案在“数据隐私”和“可定制性”上得分最高,但在“部署简易度”上不及 SaaS 产品 (如 Bolt.new, MiaoDa)。

生成耗时与Token消耗估算

基于单页面应用 (SPA) 场景

注意: 引入 MCP 会增加一次往返交互 (Tool Call),导致首次生成时间增加约 1.5-2秒,但能显著提升代码准确性。

从零开始的研究与实施路径

1

基础框架搭建 (Day 1-2)

目标:跑通 "Hello World" 的 LLM 调用。

  • 选择基础模型:推荐 Claude 3.5 Sonnet (编程能力最强) 或 DeepSeek V3 (性价比)。
  • 集成 Vercel AI SDK:处理 Stream 流式响应。
  • 配置 LiteLLM:作为统一网关,方便切换模型。
2

MCP 服务集成 (Day 3-5)

目标:让 AI 能够读取本地文件或搜索网络。

  • 部署 mcp-server-filesystem:赋予 AI 读写项目文件的能力。
  • 实现 Prompt 路由:判断用户是 "问问题" 还是 "写代码"。
3

沙箱预览环境 (Day 6+)

目标:实现 "所见即所得"。

  • 集成 WebContainers API (推荐) 或 Sandpack。
  • 实现 iframe 通信:将生成的 HTML/JS 注入预览窗口。
  • 添加 "Download" 功能:将内存中的文件打包为 Zip。