Bolt.diy 一键部署,“一句话”实现全栈开发

本文涉及的产品
函数计算FC,每月15万CU 3个月
应用实时监控服务-应用监控,每月50GB免费额度
服务治理 MSE Sentinel/OpenSergo,Agent数量 不受限
简介: Bolt.diy 是 Bolt.new 的开源版本,提供更高灵活性与可定制性。通过自然语言交互简化开发流程,支持全栈开发及二次开发,使零基础开发者也能实现从创意到云端部署的完整链路。本方案基于阿里云函数计算 FC 搭建,集成百炼模型服务,快速完成云端部署。用户可通过对话开启首个项目,两步完成部署并获300社区积分。方案优势包括多模型适配、高度定制化、全栈开发支持及智能化辅助工具,助力高效开发与创新。

1.gif

通过 Bolt.diy 实现从创意到部署的极速开发


Bolt.diy 是 Bolt.new 的一个开源版本,它提供了更高的灵活性和可定制性,通过自然语言交互简化开发流程,并提供全栈开发支持,同时允许用户二次开发,让零基础开发者也能在浏览器中实现从创意构想到云端部署的完整链路。


本方案将基于函数计算 FC 搭建,集成了阿里云百炼模型服务,旨在实现 Bolt.diy 的快速云端部署。


基于函数计算一键部署Bolt.diy,无需复杂配置,用对话开启你的第一个项目,两步完成部署任务,即可获得300社区积分

立即体验:https://developer.aliyun.com/topic/tech-solution/fc-bolt-diy


方案优势


  • 多模型灵活适配

支持多种大语言模型(如 OpenAI、DeepSeek、Gemini、Hugging Face 等),用户可根据场景需求为不同任务指定特定模型,提升任务匹配度。

  • 可扩展性与高度定制化

采用模块化架构,支持自定义 Docker 服务和集成第三方工具,提供了高度的灵活性。支持通过插件扩展,甚至集成本地私有模型(如自训练的LLM)。

  • 全栈开发全流程覆盖

通过自然语言交互生成前后端代码(如 React 前端、Node.js 服务端),支持实时调试、版本管理和一键部署。内置可视化工具管理 SQL/NoSQL 数据库,支持自动生成数据模型和 API 接口。

  • 智能化辅助工具

AI 实时分析代码错误并生成修复建议,减少手动调试时间。同时,提供代码结构图谱和依赖关系可视化,帮助快速理解复杂项目。


架构与部署


方案架构



Bolt.diy 是 Bolt.new 的一个开源版本,它提供了更高的灵活性和可定制性,通过自然语言交互简化开发流程,并提供全栈开发支持,同时允许用户二次开发。


本方案旨在介绍如何将 Bolt.diy 部署到云上,通过函数计算 FunctionAI 开发平台构建 Web 服务,通过其提供的函数计算资源,结合百炼的模型服务能力,采用 deepseek-v3 实现代码生成。借助 FunctionAI,用户可以快速便捷地部署开源项目,而无需担心底层资源管理和运维问题,从而专注于应用的创新和开发。同时 FunctionAI 提供了免运维的高效开发环境,具备弹性伸缩和高可用性,并采用按量付费模式,有效降低资源闲置成本。


1.png


本方案的技术架构包括以下云服务:


1 个函数计算 FunctionAI 开发平台项目:全托管的 Serverless 计算服务,用于部署应用。


百炼模型服务:调用 API 使用文本模型进行代码生成。


部署应用


1. 请点击前往部署【1】打开我们提供的函数计算 FunctionAI 开发平台项目模板,参数选择默认配置,然后单击部署项目,最后在弹出面板中单击确认部署,部署预计等待 1 分钟。


说明


首次使用函数计算 FunctionAI 开发平台会自动跳转到访问控制快速授权页面,滚动到浏览器底部单击确认授权,等待授权结束后单击返回控制台。

2. 部署完成后,类似下图所示。


2.png


方案验证


访问示例应用


1. 应用部署完成之后按照下图找到访问地址。


3.png


2. 点击访问地址,在浏览器中,会自动跳转为 HTTPS 链接地址。提示安全证书警告或错误,可以选择点击高级选项,然后点击继续前往以访问该网站。


说明


Bolt.diy 底层依赖 WebAssembly,其中用到了 SharedArrayBuffer。为了满足跨源隔离的要求并确保安全地使用如 SharedArrayBuffer 这样的功能,Bolt.diy 需要保证其所有资源均通过 HTTPS 协议提供。


4.png


3. 进入示例应用。


5.png


说明


首次进入应用 3 秒后将自动刷新页面加载默认配置。


获取并配置百炼 API-KEY


1. 获取百炼 API-KEY。


a. 登录阿里云百炼大模型服务平台【2】


b. 单击顶部应用,在左侧导航栏单击 API-Key。


c. 选择全部 API-KEY 或我的 API-KEY,然后创建或查看 API-KEY。


说明


仅主账号拥有查看全部 API-KEY 的权限。主账号可以获取所有子账号的 API-KEY,子账号仅能获取自己的 API-KEY。

请不要将 API-KEY 以任何方式公开,避免因未经授权的使用造成安全风险或资金损失。

d. 单击操作列中的复制按钮,复制 API KEY。


2. 配置百炼 API-KEY。

a. 按照下图所示,单击编辑按钮。


6.png


b. 输入百炼 API-KEY ,然后点击对号,保存配置。


7.png


c. 配置完成如下图所示。


8.png


使用提示词进行创作


1. 按照下图所示单击提示词进行创作。


9.png



说明


本方案推荐使用 deepseek-v3 模型进行代码生成,如果需要尝试其它模型可以下拉更改模型。


2. 工作区域说明,如下图所示。


10.png


3. 代码自动生成中如下图所示。


11.png


4. 如果出现下图所示,说明代码生成结束。


12.png


5. 预览网页(相同提示词在 AI 生成过程中存在一定的差异)


13.png


说明


1. 如果出现下图错误提示,不能自动预览可以尝试执行命令 npm install 安装依赖,然后执行命令 npm run dev 运行项目。


14.png


2. 如果出现 Terminal Error 错误可以单击 Ask Bolt,让 AI 自动处理问题。


15.png


3. 如果出现如下图所示,请在右侧命令行,执行命令 Ctrl+C 结束进程,然后执行 npm run dev 命令。


16.png


4. 如果在预览界面中出现错误,可以复制错误信息发送给模型进行修复。


17.png


下载代码


1. 如果 AI 编写的代码已符合需求,在 Terminal 中输入 npm run build 并敲击回车执行。


18.png


2. 待命令执行完成后,左侧的 Files 中会新增一个名为 dist 的文件夹。之后点击上方的 Download Code 下载代码压缩文件。


19.png


说明


当前测试域名由 Serverless Devs 社区所提供,仅供学习和测试使用,不可用于任何生产使用,域名有效期为 1 天,如果需要用于生产环境建议配置自定义域名,详细配置方式请参考:配置自定义域名【3】


变更模型提供方(可选)


1. 按照下图所示,下拉更改模型提供方。


20.png


2. 按照下图所示,单击 Get API Key,前往模型提供方官网获取 API Key。


21.png


查看部署详情,请移步官网:https://www.aliyun.com/solution/tech-solution-deploy/2878871


【1】函数计算 FunctionAI 开发平台

https://cap.console.aliyun.com/create-project?template=cap-bolt-diy&from=solution


【2】阿里云百炼大模型服务平台

https://bailian.console.aliyun.com/


【3】配置自定义域名

https://help.aliyun.com/zh/functioncompute/fc-3-0/user-guide/configure-custom-domain-names


相关文章
|
5月前
|
人工智能 JSON 安全
MCP Server 实践之旅第 1 站:MCP 协议解析与云上适配
本文深入解析了Model Context Protocol(MCP)协议,探讨其在AI领域的应用与技术挑战。MCP作为AI协作的“USB-C接口”,通过标准化数据交互解决大模型潜力释放的关键瓶颈。文章详细分析了MCP的生命周期、传输方式(STDIO与SSE),并提出针对SSE协议不足的优化方案——MCP Proxy,实现从STDIO到SSE的无缝转换。同时,函数计算平台被推荐为MCP Server的理想运行时,因其具备自动弹性扩缩容、高安全性和按需计费等优势。最后,展望了MCP技术演进方向及对AI基础设施普及的推动作用,强调函数计算助力MCP大规模落地,加速行业创新。
1499 77
|
5月前
|
人工智能 自然语言处理 API
理工科 MCP Server 神器,补足人工智能幻觉短板
本文介绍了为何需要WolframAlpha及其在解决大语言模型“幻觉”问题上的优势。大型语言模型如GPT-4虽在自然语言处理方面表现出色,但在科学与数学问题上常出错。WolframAlpha凭借其强大的计算能力和广泛的知识库,能准确处理复杂问题。Higress MCP市场已上线WolframAlpha LLM API,支持多种调用方式,并提供每月10次免费试用。配置流程包括获取API工具、安装Lobechat及配置Higress MCP插件。测试案例显示,WolframAlpha在数学推理、日常计算和图像绘制等方面表现优异,未来结合更多服务将推动AI技术发展。
614 62
|
5月前
|
Kubernetes 数据可视化 Java
SAE 实现应用发布全过程可观测
本文聚焦阿里云Serverless应用引擎(SAE)用户在发布过程中的痛点,如“发布效率低、实例启动过程不透明”等问题。通过分步骤可视化解决方案,帮助用户明确问题、理解原因并最终解决,提升SAE平台使用体验。文章详细剖析了发布过程慢、信息透出不足及实例启动黑盒等痛点,并提出通过可观测、可解释和可优化的策略解决问题,同时展示了具体实现效果与后续优化规划。
433 68
|
5月前
|
人工智能 前端开发 搜索推荐
利用通义灵码和魔搭 Notebook 环境快速搭建一个 AIGC 应用 | 视频课
当我们熟悉了通义灵码的使用以及 Notebook 的环境后,大家可以共同探索 AIGC 的应用的更多玩法。
603 124
|
5月前
|
人工智能 Cloud Native 前端开发
Bolt.diy 测评:从零部署到创意实践的全流程体验
本文详细介绍了阿里云解决方案中的Bolt.diy工具,一款基于AI的开源全栈开发平台。通过自动部署方式,用户可快速体验其多模型适配、全栈开发等功能。文章涵盖从开通服务到部署应用的具体步骤,并结合实际案例展示了生成网页的效果与局限性。尽管Bolt.diy能显著提升建站效率,但在复杂需求处理和稳定性上仍有改进空间。建议优化代码生成实时查看、预览异常处理等问题,并增加更多学习资源以帮助用户更好地设计Prompt。
596 43
|
5月前
|
人工智能 程序员 测试技术
AI 时代,为什么编程能力≠ 开发门槛
在 2.0 阶段,我们目标是实现面向任务的协同编码模式,人的主要职责转变为任务的下发、干预以及最后结果的审查。在这个过程中,人的实际工作量开始减轻,AI 工作的占比显著提升。目前的 2.0 版本是我们最近上线的。
484 93
|
5月前
|
人工智能 JavaScript Serverless
从零开始开发 MCP Server
本文介绍如何使用Serverless Devs CLI工具从零开发并一键部署MCP Server到阿里云函数计算(FC)。首先通过初始化MCP Server项目,完成本地代码编写,利用Node.js实现一个简单的Hello World工具。接着对代码进行打包,并通过Serverless Devs工具将项目部署至云端。部署完成后,提供三种客户端接入方式:官方Client、其他本地Client及在FC上部署的Client。最后可通过内置大模型的inspector测试部署效果。Serverless Devs简化了开发流程,提升了MCP Server的构建效率。
1233 119
|
5月前
|
JavaScript 前端开发 Java
通义灵码 Rules 库合集来了,覆盖Java、TypeScript、Python、Go、JavaScript 等
通义灵码新上的外挂 Project Rules 获得了开发者的一致好评:最小成本适配我的开发风格、相当把团队经验沉淀下来,是个很好功能……
1123 103
|
5月前
|
人工智能 IDE API
10行代码,实现你的专属阿里云OpenAPI MCP Server
本文介绍如何用10行Python代码创建专属阿里云OpenAPI MCP Server。针对传统MCP Server工具固化、开发复杂等问题,提出借助alibaba-cloud-ops-mcp-server实现灵活拓展的方案。通过配置服务与API名称,运行简短代码即可生成支持SSE连接的MCP Server。用户无需深入了解阿里云OpenAPI细节,大幅降低开发门槛。未来将探索通用工具设计,实现固定工具调用任意API,进一步提升灵活性与效率。