第一次上传资源,喷血离场

简介:   这资源上传这个页面http://u.download.csdn.net/upfile是谁做的啊,我的神啊,我今晚上得传快要疯了   我的上传限制是25M,我想上传一个30多M的资源,把它压缩成两个压缩包 我第一个压缩文件上传上去了,http://download.

 

这资源上传这个页面http://u.download.csdn.net/upfile是谁做的啊,我的神啊,我今晚上得传快要疯了

 

我的上传限制是25M,我想上传一个30多M的资源,把它压缩成两个压缩包

我第一个压缩文件上传上去了,http://download.csdn.net/source/1360970

但是第二个我上传了9次,一次也没成功,我快喷血了

每次都是等到上传进度条到100%时才提示“此文件您已经上传过!”

我猜想这个页面的上传控件是这样写的:

if(UpdateFileSuccess())

{

}

else

{

}

bool UpdateFileSuccess()

{

UpdateFileToTempFile();

if(!ExistInUpdateFile(TempFile))

{

MoveTempFileToUpdateFile();

UpdateRecordToDatabase();

return True;

 

}

else

{

DeleteTempFile();

Response.Write("<script>windows.alert('此文件您已经上传过!');</script>");

return False;

}

}

当然这只是本人个人的观点,具体还是要看代码才能分析出问题的逻辑错误

本人认为正常逻辑应该是这样的:

if(!ExistUpdateFile())

{

if(UpdateFile())UpdateRecordToDatabase();

}

else

{

Response.Write("<script>windows.alert('此文件您已经上传过!');</script>");

}

由于我第一次上传if(!ExistInUpdateFile(TempFile)){},因而执行了{}

的内容,但是MoveTempFileToUpdateFile();执行成功之后

UpdateRecordToDatabase();由于某种原因没有执行成功,导致我一直想要上传第一次没有记录到数据库的文件时,发现文件已经存在,而记录虽没有,但是已存在的文件是不允许再上传的!

这就导致了我碰到了这种情况的发生!

这个程序的健壮性不好,如果真的是不可避免地存在UpdateRecordToDatabase();有一定的几率会失效的话,那么本人建议用户上传的文件不判断是否存在就直接覆盖,或者可以提示用户是否覆盖已存在的文件,或者不判断是否存在就直接不覆盖

当然看具体情况,要用什么方法了,好了累了,先睡觉了,呵呵

本人qq648952046,有意者联系,呵呵

目录
相关文章
|
并行计算 PyTorch Linux
幸福的烦恼:显卡算力太高而pytorch版本太低不支持
幸福的烦恼:显卡算力太高而pytorch版本太低不支持
2897 0
|
机器学习/深度学习 算法 测试技术
深度学习环境搭建笔记(二):mmdetection-CPU安装和训练
本文是关于如何搭建深度学习环境,特别是使用mmdetection进行CPU安装和训练的详细指南。包括安装Anaconda、创建虚拟环境、安装PyTorch、mmcv-full和mmdetection,以及测试环境和训练目标检测模型的步骤。还提供了数据集准备、检查和网络训练的详细说明。
855 5
深度学习环境搭建笔记(二):mmdetection-CPU安装和训练
|
机器学习/深度学习 人工智能
【AI大模型】深入Transformer架构:编码器部分的实现与解析(下)
【AI大模型】深入Transformer架构:编码器部分的实现与解析(下)
|
存储 安全 API
权限设计种类【RBAC、ABAC】
权限设计种类【RBAC、ABAC】
1899 2
|
机器学习/深度学习 自然语言处理 计算机视觉
Transformer深度学习架构与GPT自然语言处理模型
Transformer和GPT(Generative Pre-trained Transformer)是深度学习和自然语言处理(NLP)领域的两个重要概念,它们之间存在密切的关系但也有明显的不同。
492 2
|
机器学习/深度学习 人工智能 自然语言处理
注意力机制详解(一)
注意力机制是受人类认知过程启发的一种深度学习技术,它允许模型动态地聚焦于输入的不同部分,根据上下文分配“注意力”。这种机制最早在序列到序列模型中提出,解决了长距离依赖问题,增强了模型理解和处理复杂数据的能力。基本的注意力计算涉及查询(Q)、键(K)和值(V),通过不同方式(如点积、拼接等)计算相关性并应用softmax归一化,得到注意力权重,最后加权组合值向量得到输出。自注意力是注意力机制的一种形式,其中Q、K和V通常是相同的。在自然语言处理(NLP)中,注意力机制广泛应用在Transformer和预训练模型如BERT中,显著提升了模型的表现。
|
Java 应用服务中间件 API
Tomcat处理一个HTTP请求的执行流程的详细解析
Tomcat处理一个HTTP请求的执行流程的详细解析
586 4
|
安全 数据安全/隐私保护
|
网络协议 应用服务中间件 Linux
LINUX安装nginx详细步骤
LINUX安装nginx详细步骤
5193 1
|
机器学习/深度学习 存储 并行计算
Pytorch自动混合精度(AMP)介绍与使用 - autocast和Gradscaler
Pytorch自动混合精度(AMP)介绍与使用 - autocast和Gradscaler
Pytorch自动混合精度(AMP)介绍与使用 - autocast和Gradscaler