同前端联调遇到的坑(二)

简介: 一、出现的问题项目在测试阶段出现了一些问题,在有一个页面进行增加或删除数据后刷新,页面没有任何反应。查看增加或修改的请求,响应是200状态,提示新增或删除成功,但是页面刷新后无论是条数还是详细数据都没有变化,该多的不多,该少的也不少。而且看到新增或删除后的查询请求,返回状态码是304,也就是说页面重定向了。由于这一模块相关的前端代码不是现在的这个同时负责,因此他也是一顿好找。
一、出现的问题

项目在测试阶段出现了一些问题,在有一个页面进行增加或删除数据后刷新,页面没有任何反应。

查看增加或修改的请求,响应是200状态,提示新增或删除成功,但是页面刷新后无论是条数还是详细数据都没有变化,该多的不多,该少的也不少。

而且看到新增或删除后的查询请求,返回状态码是304,也就是说页面重定向了。

由于这一模块相关的前端代码不是现在的这个同时负责,因此他也是一顿好找。


二、失败的解决方案

一开始在网上查询时,说是浏览器缓存的问题,于是他参照部分资料修改了请求头,加上了如下代码:

<meta http-equiv="Pragma" content="no-cache">
<meta http-equiv="Cache-Control" content="no-cache">
<meta http-equiv="Expires" content="0">

但是令人沮丧的是,这个办法并没有实际解决我们的问题,重新进行上边的操作时,结果也是没有变化。


三、成功解决方案

于是乎,他只好和另一个同事一起在网上再次一番好找,看到网上说get请求可能会发生这个问题,然后一检查,发现我们的这个新增和删除之后的查询请求果然是get,于是便把get改成post,我也把后端相关的代码改成了post。

但是结果却是,无论如何我都接收不到他们传递的数据,控制台明明是个2,我后台debug看到的却还是0。

以前从没遇到过这样的问题,我也是一阵无语,网上搜了好多资料无果后,只好向老同事寻求帮助,于是成功的解决,原因只在于我的后台get变为post后,用对象接受参数时没有加入@requestbody这个注解,因此spring无法把post请求传递的数据正确的转换为对象,就导致控制台看到的请求参数与我debug看到的不一样。


目录
相关文章
|
负载均衡 前端开发 JavaScript
【Node.js实战】一文带你开发博客项目之联调(导入HTML、Nginx反向代理、CORS解决跨域、与前端联调)
【Node.js实战】一文带你开发博客项目之联调(导入HTML、Nginx反向代理、CORS解决跨域、与前端联调)
239 1
|
存储 缓存 前端开发
|
SQL JSON 前端开发
|
Web App开发 前端开发 安全
5 分钟解决前后端联调问题,说一说前端代理这件事
简洁,又能触达痛点的一站式前端代理解决方案,你值得拥有。
5 分钟解决前后端联调问题,说一说前端代理这件事
|
2月前
|
存储 人工智能 前端开发
前端大模型应用笔记(三):Vue3+Antdv+transformers+本地模型实现浏览器端侧增强搜索
本文介绍了一个纯前端实现的增强列表搜索应用,通过使用Transformer模型,实现了更智能的搜索功能,如使用“番茄”可以搜索到“西红柿”。项目基于Vue3和Ant Design Vue,使用了Xenova的bge-base-zh-v1.5模型。文章详细介绍了从环境搭建、数据准备到具体实现的全过程,并展示了实际效果和待改进点。
142 2
|
2月前
|
JavaScript 前端开发 程序员
前端学习笔记——node.js
前端学习笔记——node.js
44 0
|
2月前
|
人工智能 自然语言处理 运维
前端大模型应用笔记(一):两个指令反过来说大模型就理解不了啦?或许该让第三者插足啦 -通过引入中间LLM预处理用户输入以提高多任务处理能力
本文探讨了在多任务处理场景下,自然语言指令解析的困境及解决方案。通过增加一个LLM解析层,将复杂的指令拆解为多个明确的步骤,明确操作类型与对象识别,处理任务依赖关系,并将自然语言转化为具体的工具命令,从而提高指令解析的准确性和执行效率。
|
2月前
|
存储 弹性计算 算法
前端大模型应用笔记(四):如何在资源受限例如1核和1G内存的端侧或ECS上运行一个合适的向量存储库及如何优化
本文探讨了在资源受限的嵌入式设备(如1核处理器和1GB内存)上实现高效向量存储和检索的方法,旨在支持端侧大模型应用。文章分析了Annoy、HNSWLib、NMSLib、FLANN、VP-Trees和Lshbox等向量存储库的特点与适用场景,推荐Annoy作为多数情况下的首选方案,并提出了数据预处理、索引优化、查询优化等策略以提升性能。通过这些方法,即使在资源受限的环境中也能实现高效的向量检索。
|
2月前
|
机器学习/深度学习 弹性计算 自然语言处理
前端大模型应用笔记(二):最新llama3.2小参数版本1B的古董机测试 - 支持128K上下文,表现优异,和移动端更配
llama3.1支持128K上下文,6万字+输入,适用于多种场景。模型能力超出预期,但处理中文时需加中英翻译。测试显示,其英文支持较好,中文则需改进。llama3.2 1B参数量小,适合移动端和资源受限环境,可在阿里云2vCPU和4G ECS上运行。