随着 AI 编程工具的迅猛发展,从早期的 Code Copilot(代码辅助)到如今备受瞩目的 Cursor、v0、Windsurf 和Bolt.new 等全栈开发平台。这些创新工具旨在加速项目开发、简化工作流程并提高研发效率。然而,访问这些工具通常依赖于“通畅的网络”和海外 LLM 模型,在某些情况下可能成为使用这些工具的障碍。
作为一位大模型的爱好者和学习者,分享一条不同的路径——如何利用本地 Ollama 和国内的大模型 API,在本地部署和使用 Bolt.new?
1. Bolt.new 概览
Bolt.new是由 StackBlitz 推出的一款革新性的 AI 驱动全栈开发平台,它以几个关键特性脱颖而出:
- 即时全栈环境:借助 WebContainer 技术,Bolt.new 能够在浏览器中直接运行真实的 Node.js 环境,支持 npm 包安装、服务器配置及第三方 API 交互,为开发者提供了前所未有的便捷性。
- 智能 AI 助手:内置的强大 AI 功能可以理解并执行复杂的指令,无论是创建文件、编辑代码还是解决问题,都能显著提高工作效率。特别是其一键修复错误的功能,能够自动处理编译或运行时出现的问题,极大地节省了时间。
- 简易部署流程:集成的聊天界面让用户可以直接上传代码至云端,并选择合适的托管服务(如 Vercel)进行部署。生成的应用程序可以通过 URL 轻松分享,促进团队协作和成果展示。
尽管 Bolt.new 带来了诸多便利,但也存在一些局限:
- 缺乏版本控制:代码调整可能导致原有版本被覆盖,增加了数据丢失的风险。
- 频繁重新生成和部署:每次修改需求时,Bolt.new 会重新生成整个代码库并部署,需要较长时间。
对于快速原型设计和全栈功能开发,Bolt.new 凭借其完整的开发环境、智能化的辅助工具和简便的协作机制,是一个不错的选择。
2. 本地部署 Bolt.new
准备本地大模型
Bolt.new 底层依赖 LLM,我们先准备 2 个 LLM 选项:本地运行 Ollama,和 API 调用的远程 LLM 服务(非必须)
- 本地 Ollama:关于 Ollama 详细使用教程,请参考之前文章(Ollama 完整教程),建议下载和启动Qwen2.5-Coder-7B模型
- LLM 服务 API:Ollama 依赖电脑硬件配置,如果电脑硬件条件有限,我们还可以直接用户大模型服务 API,只需要兼容 OpenAPI 接口标准即可。
下载和配置 Bolt.diy
官方提供的 Bolt.new 并不直接支持本地 LLM 或自定义 API 设置。幸运的是,社区牛人coleam00基于官方版本开发了一个增强版——bolt.new-any-llm,该版本不仅兼容多种 LLM,还能灵活配置 API 接口。
现在似乎被收编了,https://github.com/stackblitz-labs/bolt.diy
- 克隆项目仓库
- 配置环境变量:复制
<span>.env.example</span>
为<span>.env</span>
,然后根据实际情况编辑<span>.env</span>
配置文件中的 API 地址和密钥。例如,Ollama 需要设置<span>OLLAMA_API_BASE_URL</span>
参数,国内模型 API 服务,则需要设置<span>OPENAI_LIKE_API_BASE_URL</span>
和<span>OPENAI_LIKE_API_KEY</span>
这 2 个参数。
然后,打开<span>.env</span>
配置文件,可以看到支持的模型列表,包括 GROQ、HuggingFace、Open AI 等,根据需要进行内容修改:
说明:<span>OPENAI_LIKE_API_BASE_URL</span>
和<span>OPENAI_LIKE_API_KEY</span>
意思就是兼容 OpenAI 接口标准的大模型地址和 API Key,目前国内厂商基本都支持 OpenAPI 接口标准。