开发者社区> 问答> 正文

php采集是运行一段时间就会卡住!如何解?:报错

从数据库中读取URL数据,对远程URL采集信息!

echo "<meta http-equiv=refresh content='0; url=/index.php/?id=".$id."'>";
使用跳转来刷新一个个读取的,运行一段时间后,浏览器就会卡住不会刷新了,只能手动再才刷新,就解决办法呢?

展开
收起
kun坤 2020-06-08 19:22:02 947 0
1 条回答
写回答
取消 提交回答
  • 用框架页应该会好点在子框架中请求采集url 每次id不同###### 顺便再加段JS

    var _waitTime = 2; //秒 setTimeout(function(){ self.location.href="http://index.php/?id=$nextId"; },_waitTime*1000);
    ######谢谢,这个可以算补充,请问不知道是否还有其他方法能有效解决的!######

    引用来自“西门飞”的答案

    用框架页应该会好点在子框架中请求采集url 每次id不同
    请问用框架的区别是什么? ######这样子页面就不会卡住了?######主页面无刷新###### 其实很多时候不一定是技术问题,可能是网络问题,不要用PHP采集,你可以用C#做个客户端工具去采集,会好很多,灵活性也大很多 ######恩,对方的网络等都有可能产生问题!可惜偶不会C#,不然也用其他的来写了!###### 有多种可能会让你卡住。 建议使用定时执行,而不是一次疯狂执行到底。 ######恩,就是想少花点时间,就一直在执行 = =!###### 卡住的原因很多,主要可能有以下几个原因 : 1、浏览器内存容量占用问题,当一个页面不停不停的增加内容时,浏览器有可能因渲染引擎的问题而卡住 。比如你打开一个大型的JS程序,里面不停的加截图片等资源 。 2、采集远程文件时候,对方进行了限制。有些服务器为了防止 非正常用户访问,会对访问者进行拦截,比如有些页面,用户停留时间才十几MS,或一个用户有几十个HTTP请求,那么服务器会暂停返回数据 。 3、所写的采集程序挂了。 具体 是哪一个原因 ,可以写log跟一下 ######感谢,之前没有具体用log来记录,用log来记录的话能否给个思路,是怎么记录程序执行到哪步出问题的。
    2020-06-08 19:22:08
    赞同 展开评论 打赏
问答分类:
问答地址:
问答排行榜
最热
最新

相关电子书

更多
PHP 2017.北京 全球开发者大会——高可用的PHP 立即下载
PHP安全开发:从白帽角度做安全 立即下载
复杂PHP系统性能瓶颈排查及优化 立即下载