1、苏宁百万级商品爬取 思路讲解 类别爬取

本文涉及的产品
全局流量管理 GTM,标准版 1个月
云解析 DNS,旗舰版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
简介: 苏宁类别面 https://list.suning.com/解析图.png通过图可知,总共有N个类别,每个类别都是一个DIV区块,然后再继续分解DIV区块分析内容。

苏宁类别面 https://list.suning.com/

img_d18be20edb852aca98758c72389fa4ba.png
解析图.png

通过图可知,总共有N个类别,每个类别都是一个DIV区块,然后再继续分解DIV区块分析内容。我们要得到的是类别表,据图所示我们可以分析得出类别表的结构应当树形的。所以涉及的表应该是包含子节点和父节点的。初步设计图如下

Id Pid Code Name Url
主键 父节点 编码 名称 地址
img_6b607c8210fa325ecd9b7ea51ac88521.png
解析图2.png

我们可以得到解析图2对应的 Xpath为://*[@id="20089"]/div[2]/div[2] 。可是因为是通过ID作为唯一Key来向下找,所以我们需要先得到所有的Key值。这个方法被我放弃而选用了另外一种方式。

/html/body/div[5]/div[2].首先找到如果所示xpath对应的内容

img_0094a814433bc507a254d329f09c5d90.png
/html/body/div[5]/div[2].png

那么如果我们想要得到下属的内容只需要增加一个后缀
/html/body/div[5]/div[2] /div
此时我们得到了所有模块的内容,那么我们接下去分析

img_6827da9b101ea1a956d8f72e00822d62.png
一级.png

img_3c028f0b4c815b75fbeac62ec2d916de.png
二级+三级.png

还是以“手机配件”为例。一级类别,二级类别、三级类别如果所示。我们又如何得到内容,然后将其变成单元行的形式插入数据库中呢?

解决方案如下
根据网页内容可知,一级类别包含着二级类别,二级类别包含着三级类别。所以我们可以采用如下方式。
首先获取所有一级类别,即解析图2.png所示内容。
一级类别 A方法
循环当前内容
1、解析内容 增加当前A级类别实体
2、循环包含的二级内容,处理
3、合并实体
二级类别 B方法
循环当前内容
1、解析内容 增加当前B级类别实体
2、循环包含的三级级内容,处理
3、返回实体给A方法
三级类别 C方法
循环当前内容
1、解析内容 增加当前C级类别实体
2、返回实体给B方法

img_bc1e1020550d54ec2487b7fd67836999.png
ABC.png


代码讲解

ABC(Combine)方法
遍历InitA方法获取的内容,增加A实体后将ANode作为参数传递给InitB方法。依次类推,最后得到符合要求的实体。

    private static List<POCO_Category> CombineA_B_C()
        {
            List<POCO_Category> AList = new List<POCO_Category>();

            int idIndex = 1;
            foreach (HtmlNode xNode in InitA())
            {
                POCO_Category aModel = new POCO_Category()
                {
                    Id = ToLevelCode(idIndex),
                    PId = "000",
                    Levels = 1,
                    Code = ToLevelCode(idIndex),
                    Name = xNode.SelectSingleNode("./h2").InnerText
                };
                AList.Add(aModel);

                var blist = InitB(aModel, xNode);
                AList.AddRange(blist);
                idIndex = idIndex + blist.Count + 1;
            }

            return AList;
        }

        private static List<HtmlNode> InitA()
        {
            var url = "https://list.suning.com/#20089";
            var web = new HtmlWeb();
            var docWeb = web.Load(url);
            //var cssNodes = docWeb.DocumentNode.CssSelect(".search-main.introduce.clearfix > div").ToList();//147毫秒
            List<HtmlNode> xpathNodes = docWeb.DocumentNode.SelectNodes("/html/body/div[5]/div[2]/div").ToList();
            return xpathNodes;
        }

        private static List<POCO_Category> InitB(POCO_Category parentModel, HtmlNode node)
        {
            int idIndex = Convert.ToInt32(parentModel.Id) + 1;
            List<POCO_Category> bList = new List<POCO_Category>();

            var xNodes = node.SelectNodes("./div").ToList();
            foreach (var xNode in xNodes)
            {
                var cateModel = xNode.SelectSingleNode("./div[1]/a");
                POCO_Category bModel = new POCO_Category()
                {
                    Id = ToLevelCode(idIndex),
                    PId = parentModel.Id,
                    Code = $"{parentModel.Code}_{ToLevelCode(idIndex)}",
                    Name = cateModel.InnerText,
                    Url = $"https:{cateModel.GetAttributeValue("href")}",
                    Levels = 2
                };
                bList.Add(bModel);

                var clist = InitC(bModel, xNode.SelectSingleNode("./div[2]"));
                bList.AddRange(clist);
                idIndex = idIndex + clist.Count + 1;
            }

            return bList;
        }

        private static List<POCO_Category> InitC(POCO_Category parentModel, HtmlNode node)
        {
            int idIndex = Convert.ToInt32(parentModel.Id) + 1;
            List<POCO_Category> cList = new List<POCO_Category>();

            HtmlNodeCollection xNodes = node.SelectNodes("./a");

            if (xNodes != null && xNodes.Count > 0)
            {
                foreach (var xNode in xNodes)
                {
                    POCO_Category cModel = new POCO_Category()
                    {
                        Id = ToLevelCode(idIndex),
                        PId = parentModel.Id,
                        Code = $"{parentModel.Code}_{ToLevelCode(idIndex)}",
                        Name = xNode.InnerText,
                        Url = $"https:{xNode.GetAttributeValue("href")}",
                        Levels = 3
                    };
                    cList.Add(cModel);
                    idIndex += 1;
                }
            }

            return cList;
        }

        private static string ToLevelCode(int index)
        {
            return index.ToString("000");
        }
目录
相关文章
|
JSON API 数据格式
快手API接口:根据关键词获取海量商品列表的秘诀
快手API接口:根据关键词获取海量商品列表的秘诀
163 1
|
7月前
|
搜索推荐 算法 数据挖掘
十个最全网站营销方法案例分析
本文探讨了10种网站营销策略:SEO优化提升搜索引擎排名;内容营销建立品牌信任;社交媒体营销扩大影响力;搜索引擎广告吸引目标用户;电子邮件营销促进销售;网站设计优化提升用户体验;移动端优化适应移动设备;数据分析驱动策略优化;视频营销吸引关注;合作伙伴营销扩展品牌覆盖。AokSend提供高效验证码发信服务,助力企业营销。选择合适策略,持续优化,以实现最佳营销效果。
|
2月前
|
数据采集
以“雪球网行情中心板块数据抓取”的爬虫案例
爬虫案例—雪球网行情中心板块数据抓取
136 0
|
4月前
|
数据采集 数据挖掘 Python
python爬虫去哪儿网上爬取旅游景点14万条,可以做大数据分析的数据基础
本文介绍了使用Python编写的爬虫程序,成功从去哪儿网上爬取了14万条旅游景点信息,为大数据分析提供了数据基础。
256 1
|
7月前
|
JSON 搜索推荐 数据挖掘
电商数据分析的利器:电商关键词搜索API接口(标题丨图片丨价格丨链接)
淘宝关键词搜索接口为电商领域的数据分析提供了丰富的数据源。通过有效利用这一接口,企业和研究人员可以更深入地洞察市场动态,优化营销策略,并提升用户体验。随着电商平台技术的不断进步,未来的API将更加智能和个性化,为电商行业带来更多的可能性。
|
数据采集 Python
Python爬虫系列14-采集JD商城百万商品数据详情
有时候不能什么都听别人的,更不能因为别人的意见而打乱了自己原有的计划。学习亦是如此。 自己要学会为自己负责,不要听别人说什么就是什么。如果真是那样,那么你自己的人生会过得非常的不好,会一团糟。别人的只是建议,最终还是由自己决定。
Python爬虫系列14-采集JD商城百万商品数据详情
Crawl:利用bs4和requests爬取了国内顶级某房源平台(2020年7月2日上海二手房)将近30*100多条数据并进行房价分析以及预测
Crawl:利用bs4和requests爬取了国内顶级某房源平台(2020年7月2日上海二手房)将近30*100多条数据并进行房价分析以及预测
Crawl:利用bs4和requests爬取了国内顶级某房源平台(2020年7月2日上海二手房)将近30*100多条数据并进行房价分析以及预测
|
机器学习/深度学习 JSON 数据可视化
实战|教你爬取全国火锅店数量,并利用地图可视化展示
大家好,我是阿辰,今天教大家如何获取全国不同城市火锅店数量情况,并将这些数据进行可视化展示,以更加直观的方式去浏览全国不同省份、不同城市的火锅店分布情况。 本文数据来自于某度地图,通过python技术知识去获取数据并进行可视化。
355 0
|
数据挖掘 搜索推荐
带你读《广告数据定量分析:如何成为一位厉害的广告优化师》之三:广告数据的描述:图表
这是一部面向初级广告优化师、渠道运营人员的广告数据分析和效果优化的实战指南。数据分析功底的深浅,决定了广告优化师能力水平的高低。这本书一方面告诉读者成为一名厉害的广告优化师需要掌握的数据分析技能,以及如何快速掌握这些技能;一方面又为读者总结了SEM广告、信息流广告、应用商店广告数据的分析方法论和效果优化的方法,以及多广告推广渠道的统筹优化。书中提供大量真实数据案例,助你提升广告数据分析的理论深度和业务水平。
|
SQL 数据库
2、苏宁百万级商品爬取 思路讲解 类别页数爬取
通过上述章节内容,我们得到了类别的数据,现在我们需要对每个类别进行商品的爬取。点击移动电源,进行商品总页数抓取,这个模块相对简单,正好适合用来练手。 我们可以从“列表页.png”的图片中看到,当前移动电源的页数为右上角所显示 1/100,即100页. xpath的获取如第三张图所示,结果为 //*[@id="second-filter"]/div[2]/div/span 类别.png 列表页.png xpath.png 分析出了如果获取页数,我们现在要考虑的问题是,如果更新所有的类别。
1092 0
下一篇
DataWorks