开发者社区 问答 正文

站在爬虫的角度,如何反爬?

站在爬虫的角度,如何反爬?

展开
收起
OSC开源社区 2024-05-28 13:54:26 55 分享 版权
2 条回答
写回答
取消 提交回答
  • 爬虫和反爬两者就像两兄弟一样,不管反爬做得如何,总会被破解,程序员都是相互伤害的。个人认为最好的反爬是将数据使用js混淆加密处理,这个反爬破解起来相对考验开发者的技术水平。当然这是治标不治本,最根本的方法是提高网站的负载量和并发量。

    2024-05-28 15:02:38
    赞同 展开评论
  • 遵守网站的robots.txt文件,这是网站对爬虫的指南,通常会列出禁止爬取的页面和目录。Robots协议屏蔽搜索引擎抓取网站内容
    image.png

    2024-05-28 14:26:05
    赞同 展开评论
问答分类:
问答地址: