本月的scrapy已经写完,关于scrapy写了常用的中间件、数据管道、以及scrapy的相关源码,但是感觉可写的内容不是很多,要门是使用相关的要么是一些不用关注的源码。
所以写完scrapy之后还写了些一些其他内容,算是在充数吧,同时预下一个专题是python的数据结构和算法,将对九大算法及其常用数据结构分享,同时将算法应用于数据结构上。
本月scrapy专题相关内容:
《scrapy中最为重要的两个对象Request、Response》
《scrapy中数据处理的两个模块:Item Pipeline与Exporter》
《scrapy框架通用爬虫、深度爬虫、分布式爬虫、分布式深度爬虫,源码解析及应用》
《scrapy中scrapy_redis分布式内置pipeline源码及其工作原理》
《scrapy_redis中序列化源码及其在程序设计中的应用》
《scrapy_redis分布式组件Connection源码解读及工作原理》
除此之外还有些其他方面的文章:
今天又想到本公众号的定位问题,按照当初的想法的话是定位中高阶段的一个公众号,不分享基础的知识,一方面是对于读者而言学基础知识最佳的方式是通过有体系的学习,像基础全面的书,一套完整的视频教程,这些能构建初学者的知识体系,才是最有益的渠道。
我对技术公众的理解就是提高、升华、复写、融合,因为公众号很难成体系所以他的价值应该是读者读后一种豁然开朗的感觉,或者让读者感觉原来还可以这么玩,这就是我当初写这个公众号的目的。
于我而言,每天写一篇不能太基础的文章,也有挑战,因为按照专题来写,一些专题绞尽脑汁也只能写这么多内容,所以在素材上收集上想了又想,有些时候写一篇文章只需要几十分钟,但是面对电脑想写些什么却要一两个小时。
到目前公众号持续更新三个多月,后面还将继续下去,如果有感兴趣的或者有想要分享的可以联系我,同时感谢读者朋友们的一路相随。