Python 爬取北京二手房数据,分析北漂族买得起房吗? | 附完整源码

简介:

房价高是北漂们一直关心的话题,本文就对北京的二手房数据进行了分析。

本文主要分为两部分:Python爬取赶集网北京二手房数据,R对爬取的二手房房价做线性回归分析,适合刚刚接触Python&R的同学们学习参考。

01

Python爬取赶集网北京二手房数据

入门爬虫一个月,所以对每一个网站都使用了Xpath、Beautiful Soup、正则三种方法分别爬取,用于练习巩固。数据来源如下:


Xpath爬取:

这里主要解决运用Xpath如何判断某些元素是否存在的问题,比如如果房屋没有装修信息,不加上判断,某些元素不存在就会导致爬取中断。



   
   
import requests
from lxml import etree
from requests.exceptions import RequestException
import multiprocessing
import time

headers = {
'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36' }

def get_one_page (url) :
try :
response = requests.get(url, headers=headers)
if response.status_code == 200 :
return response.text
return None
except RequestException:
return None

def parse_one_page (content) :
try :
selector = etree.HTML(content)
ALL = selector.xpath( '//*[@id="f_mew_list"]/div[6]/div[1]/div[3]/div[1]/div' )
for div in ALL:
yield {
'Name' : div.xpath( 'dl/dd[1]/a/text()' )[ 0 ],
'Type' : div.xpath( 'dl/dd[2]/span[1]/text()' )[ 0 ],
'Area' : div.xpath( 'dl/dd[2]/span[3]/text()' )[ 0 ],
'Towards' : div.xpath( 'dl/dd[2]/span[5]/text()' )[ 0 ],
'Floor' : div.xpath( 'dl/dd[2]/span[7]/text()' )[ 0 ].strip().replace( '\n' , "" ),
'Decorate' : div.xpath( 'dl/dd[2]/span[9]/text()' )[ 0 ],
#地址需要特殊处理一下
'Address' : div.xpath( 'dl/dd[3]//text()' )[ 1 ]+div.xpath( 'dl/dd[3]//text()' )[ 3 ].replace( '\n' , '' )+div.xpath( 'dl/dd[3]//text()' )[ 4 ].strip(),
'TotalPrice' : div.xpath( 'dl/dd[5]/div[1]/span[1]/text()' )[ 0 ] + div.xpath( 'dl/dd[5]/div[1]/span[2]/text()' )[ 0 ],
'Price' : div.xpath( 'dl/dd[5]/div[2]/text()' )[ 0 ]
}
if div[ 'Name' , 'Type' , 'Area' , 'Towards' , 'Floor' , 'Decorate' , 'Address' , 'TotalPrice' , 'Price' ] == None : ##这里加上判断,如果其中一个元素为空,则输出None
return None
except Exception:
return None

def main () :
for i in range( 1 , 500 ): #这里设置爬取500页数据,在数据范围内,大家可以自设置爬取的量
url = 'http://bj.ganji.com/fang5/o{}/' .format(i)
content = get_one_page(url)
print( '第{}页抓取完毕' .format(i))
for div in parse_one_page(content):
print(div)

if __name__ == '__main__' :
main()

Beautiful Soup爬取:



   
   
import requests
import re
from requests.exceptions import RequestException
from bs4 import BeautifulSoup
import csv
import time

headers = { 'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36' }

def get_one_page (url) :
try :
response = requests.get(url,headers = headers)
if response.status_code == 200 :
return response.text
return None
except RequestException:
return None

def parse_one_page (content) :
try :
soup = BeautifulSoup(content, 'html.parser' )
items = soup.find( 'div' ,class_=re.compile( 'js-tips-list' ))
for div in items.find_all( 'div' ,class_=re.compile( 'ershoufang-list' )):
yield {
'Name' :div.find( 'a' ,class_=re.compile( 'js-title' )).text,
'Type' : div.find( 'dd' , class_=re.compile( 'size' )).contents[ 1 ].text, #tag的 .contents 属性可以将tag的子节点以列表的方式输出
'Area' :div.find( 'dd' ,class_=re.compile( 'size' )).contents[ 5 ].text,
'Towards' :div.find( 'dd' ,class_=re.compile( 'size' )).contents[ 9 ].text,
'Floor' :div.find( 'dd' ,class_=re.compile( 'size' )).contents[ 13 ].text.replace( '\n' , '' ),
'Decorate' :div.find( 'dd' ,class_=re.compile( 'size' )).contents[ 17 ].text,
'Address' :div.find( 'span' ,class_=re.compile( 'area' )).text.strip().replace( ' ' , '' ).replace( '\n' , '' ),
'TotalPrice' :div.find( 'span' ,class_=re.compile( 'js-price' )).text+div.find( 'span' ,class_=re.compile( 'yue' )).text,
'Price' :div.find( 'div' ,class_=re.compile( 'time' )).text
}
#有一些二手房信息缺少部分信息,如:缺少装修信息,或者缺少楼层信息,这时候需要加个判断,不然爬取就会中断。
if div[ 'Name' , 'Type' , 'Area' , 'Towards' , 'Floor' , 'Decorate' , 'Address' , 'TotalPrice' , 'Price' ] == None :
return None
except Exception:
return None

def main () :
for i in range( 1 , 50 ):
url = 'http://bj.ganji.com/fang5/o{}/' .format(i)
content = get_one_page(url)
print( '第{}页抓取完毕' .format(i))
for div in parse_one_page(content):
print(div)
with open( 'Data.csv' , 'a' , newline= '' ) as f: # Data.csv 文件存储的路径,如果默认路径就直接写文件名即可。
fieldnames = [ 'Name' , 'Type' , 'Area' , 'Towards' , 'Floor' , 'Decorate' , 'Address' , 'TotalPrice' , 'Price' ]
writer = csv.DictWriter(f, fieldnames=fieldnames)
writer.writeheader()
for item in parse_one_page(content):
writer.writerow(item)
time.sleep( 3 ) #设置爬取频率,一开始我就是爬取的太猛,导致网页需要验证。

if __name__== '__main__' :
main()

正则爬取:我研究了好久,还是没有解决。

这一过程中容易遇见的问题有:

• 有一些房屋缺少部分信息,如缺少装修信息,这个时候需要加一个判断,如果不加判断,爬取就会自动终止(我在这里跌了很大的坑)。
• Data.csv知识点存储文件路径默认是工作目录,关于Python中如何查看工作目录:


   
   
import os

#查看pyhton 的默认工作目录
print (os.getcwd())

#修改时工作目录
os.chdir( 'e:\\workpython' )
print (os.getcwd())
#输出工作目录
e:\workpython
• 爬虫打印的是字典形式,每个房屋信息都是一个字典,由于Python中excel相关库是知识盲点,所以爬虫的时候将字典循环直接写入了CSV。

Pycharm中打印如下:

将字典循环直接写入CSV效果如下:


• 很多初学者对于Address不知如何处理,这里强调一下Beautiful Soup 中.contents的用法,亲身体会,我在这里花了好多时间才找到答案。


02

R对爬取的二手房房价做一般线性回归分析

下面我们用R对抓取的赶集网北京二手房数据做一些简单的分析。

数据的说明

Name:主要是商家的醒目标题,不具备分析参考意义

Type:卧室数、客厅数、卫生间数

Area:面积(平方米)

Towards:朝向

Floor:楼层

Decorate:装修情况,如精装修、简单装修、毛坯房

Address:二手房的地址

TotalPrice:总价

Price:均价(元/平方米)

数据清洗



   
   
data<-read.csv("E://Data For R/RData/data.csv")
DATA<-data[,-c(1,7)] #将Name和Address两列去掉
DATA[sample(1:nrow(DATA),size=10),]





   
   
#在爬取的时候加入了判断,所以不知道爬取的数据中是否存在缺失值,这里检查一下
colSums( is .na(DATA))


   
   
#这里将Type的卧室客厅和卫生间分为三个不同的列
##这里需要注意,有一些房屋没有客厅如:1室1卫这时候需要单独处理,还有一些没有厕所信息。
library(tidyr)
library(stringr)
DATA=separate(data=DATA,col=Type,into = c( "Bedrooms" , "Halls" ),sep= "室" )
DATA=separate(data=DATA,col=Halls,into = c( "Halls" , "Toilet" ),sep= "厅" )
##将卫生间后面的汉字去掉
DATA $Toilet <-str_replace(DATA $Toilet , "卫" , "" )
###如图六,将Halls中带有汉字去掉,因为有一些房屋信息没有客厅,如:1室1厅,在分成卧室和客厅时,会将卫生间分到客厅一列。
DATA $Halls <-str_replace(DATA $Halls , "卫" , "" )
##取出没有客厅信息的数据,这些数据被separate到Halls列
newdata<-DATA[ which (DATA $Toilet % in % NA),2]
newdata
##将没有客厅的房屋信息Halls列填充为0
DATA[ which (DATA $Toilet % in % NA),2]<-0
DATA[ which (DATA $Toilet % in % NA),3]<-newdata
colSums(DATA== "" )
Bedrooms Halls Toilet Area Towards Floor Decorate
0 0 2 0 0 0 0
TotalPrice Price
0 0

##发现有2个厕所没有信息,将其填写为0。
DATA $Toilet [DATA $Toilet == "" ]<-0





   
   
# #这里将Area后的㎡去掉
DATA$ Area<-str_replace(DATA$Area,"㎡","")

# #查看Towards的类型
table(DATA$ Towards)

Towards 北向 东北向 东南向 东西向 东向 南北向 南向 西北向
51 25 23 50 65 32 1901 678 38
西南向 西向
28 26
# #将Floor信息带括号的全部去除
DATA$ Floor<-str_replace(DATA$Floor,"[(].*[)]","")##正则表达式
# 查看Floor的类别信息
低层 地下 高层 共1层 共2层 共3层 共4层 共5层 中层
632 32 790 36 61 101 68 130 1016

# 分别将TotalPrice和Price后面的万元、元/㎡去掉

DATA$ TotalPrice<-str_replace(DATA$TotalPrice,"万元","")
DATA$ Price<-str_replace(DATA$Price,"元/㎡","")

head(DATA)





   
   
##将数据转换格式
DATA$Bedrooms<- as .factor(DATA$Bedrooms)
DATA$Halls<- as .factor(DATA$Halls)
DATA$Toilet<- as .factor(DATA$Toilet)
DATA$Area<- as .numeric(DATA$Area)
DATA$TotalPrice<- as .numeric(DATA$TotalPrice)
DATA$Price<- as .numeric(DATA$Price)
DATA$Towards<- as .factor(DATA$Towards)
DATA$Decorate<- as .factor(DATA$Decorate)
str(DATA)


以上数据清洗完毕。

03

描述性分析

这部分的主要思路是探究单个自变量对因变量的影响,对房价的影响因素进行模拟探究之前,首先对各变量进行描述性分析,以初步判断房价的影响因素。这里探究各个因素对总价影响。

探究Bedrooms与TotalPrice的关系



   
   
table(DATA $Bedrooms )
1 2 3 4 5 6 7 9
541 1225 779 193 102 20 5 1
##由于拥有6、7、9个卧室数的数量较少,这里我们排出这些数据。
DATA<-DATA[-( which (DATA $Bedrooms % in % "6" )),]
DATA<-DATA[-( which (DATA $Bedrooms % in % "7" )),]
DATA<-DATA[-( which (DATA $Bedrooms % in % "9" )),]
table(DATA $Bedrooms )
1 2 3 4 5
541 1225 779 193 102

library(ggplot2)
ggplot(DATA,aes(x=Bedrooms,y=TotalPrice))+geom_boxplot(col= "red" )




   
   
DATA$Bedrooms<- as .numeric(DATA$Bedrooms)
##这里将卧室数为1、2、3命名为A,4为B,5为C
DATA$Bedrooms[DATA$Bedrooms== '1' ]<- "A"
DATA$Bedrooms[DATA$Bedrooms== '2' ]<- "A"
DATA$Bedrooms[DATA$Bedrooms== '3' ]<- "A"
DATA$Bedrooms[DATA$Bedrooms== '4' ]<- "B"
DATA$Bedrooms[DATA$Bedrooms== '5' ]<- "C"

不同卧室数,TotalPrice不同。且随着卧室数的增多,总价越高,符合大众的认知。

探究Halls与TotalPrice的关系



   
   
table(DATA $Halls )
0 1 2 3 4 5 9
20 1674 1050 77 18 1 0
##5个客厅只有一个个体,我们这里将其排出
DATA<-DATA[-( which (DATA $Halls % in % "5" )),]
table(DATA $Halls )
0 1 2 3 4 5 9
20 1674 1050 77 18 0 0
ggplot(DATA,aes(x=Halls,y=TotalPrice))+geom_boxplot(col= "red" )


客厅数为3时候总价最高,客厅数为0、1和2的时候总价低于客厅数3和客厅数4。

探究Toilet与TotalPrice的关系



   
   
#探究卫生间与总价的关系
table(DATA $Toilet )
0 1 2 3 4 5 6 7 9
2 2142 470 116 74 26 7 2 0
#这里将卫生间数为0、6和7的去掉
DATA<-DATA[-( which (DATA $Toilet % in % "0" )),]
DATA<-DATA[-( which (DATA $Toilet % in % "6" )),]
DATA<-DATA[-( which (DATA $Toilet % in % "7" )),]
table(DATA $Toilet )
0 1 2 3 4 5 6 7 9
0 2142 470 116 74 26 0 0 0
ggplot(DATA,aes(x=Toilet,y=TotalPrice))+geom_boxplot(col= "red" )


一般卧室数越多,卫生间数也越多,即卫生间数越多,总价越高。

探究Area与TotalPrice的关系

ggplot(DATA, aes(x=Area, y=TotalPrice)) + geom_point(col='red')


这个完全符合住房面积越大,总价越高。

探究Towards与TotalPrice的关系

ggplot(DATA,aes(x=Towards,y=TotalPrice))+geom_boxplot(col="red")

探究Floor与TotalPrice的关系

ggplot(DATA,aes(x=Floor,y=TotalPrice))+geom_boxplot(col="red")

图中信息显示楼层一共只有1、2、3、地下的总价较高。

探究Decorate与TotalPrice的关系

ggplot(DATA,aes(x=Decorate,y=TotalPrice))+geom_boxplot(col="red")

不同装修信息对总价影响较小。

04

模型建立




   
   
fit <-lm(TotalPrice~Bedrooms+Halls+Toilet+Area+Towards+Floor+Decorate,data=DATA)
summary(fit)

Call :
lm(formula = TotalPrice ~ Bedrooms + Halls + Toilet + Area +
Towards + Floor + Decorate, data = DATA)

Residuals:
Min 1 Q Median 3 Q Max
-1330.80 -103.49 -21.41 63.88 2961.59

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -112.7633 88.3010 -1.277 0.201697
Bedrooms2 -43.5934 16.2533 -2.682 0.007359 **
Bedrooms3 -82.6565 20.7641 -3.981 7.04e-05 ***
Bedrooms4 -63.3096 34.9521 -1.811 0.070198 .
Bedrooms5 79.0618 54.0763 1.462 0.143842
Halls1 -5.0663 64.2764 -0.079 0.937182
Halls2 -53.8905 65.4427 -0.823 0.410307
Halls3 -303.9750 79.2280 -3.837 0.000127 ***
Halls4 -528.5427 104.0849 -5.078 4.07e-07 ***
Toilet2 112.9566 19.1171 5.909 3.87e-09 ***
Toilet3 543.7304 38.8056 14.012 < 2e-16 ***
Toilet4 735.1894 55.0977 13.343 < 2e-16 ***
Toilet5 338.7906 84.2851 4.020 5.98e-05 ***
Area 5.1091 0.1619 31.557 < 2e-16 ***
Towards东北向 138.9088 79.3817 1.750 0.080248 .
Towards东南向 187.1895 68.5388 2.731 0.006351 **
Towards东西向 176.3055 65.8384 2.678 0.007453 **
Towards东向 210.9435 73.2744 2.879 0.004022 **
Towards南北向 75.7831 57.1199 1.327 0.184704
Towards南向 60.1949 56.9678 1.057 0.290763
Towards西北向 75.4326 71.1415 1.060 0.289091
Towards西南向 169.8106 75.9626 2.235 0.025467 *
Towards西向 234.0816 76.5585 3.058 0.002253 **
Floor地下 -812.3578 63.3277 -12.828 < 2e-16 ***
Floor高层 12.3525 14.2466 0.867 0.385991
Floor共 1 -313.7278 52.1342 -6.018 2.00e-09 ***
Floor共 2 -453.3692 41.6829 -10.877 < 2e-16 ***
Floor共 3 -601.7032 44.3336 -13.572 < 2e-16 ***
Floor共 4 -183.7866 36.3396 -5.057 4.52e-07 ***
Floor共 5 -41.4184 25.7922 -1.606 0.108419
Floor中层 -1.7223 13.5961 -0.127 0.899204
Decorate简单装修 -63.1591 22.0584 -2.863 0.004224 **
Decorate精装修 -49.3276 19.8544 -2.484 0.013033 *
Decorate毛坯 -157.0299 24.3012 -6.462 1.22e-10 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error : 265.5 on 2794 degrees of freedom
Multiple R-squared: 0.6852 , Adjusted R-squared: 0.6815
F-statistic: 184.3 on 33 and 2794 DF, p-value: < 2.2e-16

模型的F检验拒绝原假设,说明建立的模型是显著的;Ajusted R-squared为0.6815,模型的拟合程度尚可接受。


原文发布时间为:2018-08-21

本文作者:徐涛

本文来自云栖社区合作伙伴“CDA数据分析师”,了解相关信息可以关注“CDA数据分析师”。

相关文章
|
3月前
|
存储 分布式计算 大数据
基于Python大数据的的电商用户行为分析系统
本系统基于Django、Scrapy与Hadoop技术,构建电商用户行为分析平台。通过爬取与处理海量用户数据,实现行为追踪、偏好分析与个性化推荐,助力企业提升营销精准度与用户体验,推动电商智能化发展。
|
3月前
|
数据采集 Web App开发 数据可视化
Python零基础爬取东方财富网股票行情数据指南
东方财富网数据稳定、反爬宽松,适合爬虫入门。本文详解使用Python抓取股票行情数据,涵盖请求发送、HTML解析、动态加载处理、代理IP切换及数据可视化,助你快速掌握金融数据爬取技能。
2063 1
|
3月前
|
Java 数据挖掘 数据处理
(Pandas)Python做数据处理必选框架之一!(一):介绍Pandas中的两个数据结构;刨析Series:如何访问数据;数据去重、取众数、总和、标准差、方差、平均值等;判断缺失值、获取索引...
Pandas 是一个开源的数据分析和数据处理库,它是基于 Python 编程语言的。 Pandas 提供了易于使用的数据结构和数据分析工具,特别适用于处理结构化数据,如表格型数据(类似于Excel表格)。 Pandas 是数据科学和分析领域中常用的工具之一,它使得用户能够轻松地从各种数据源中导入数据,并对数据进行高效的操作和分析。 Pandas 主要引入了两种新的数据结构:Series 和 DataFrame。
520 0
|
3月前
|
JSON 算法 API
Python采集淘宝商品评论API接口及JSON数据返回全程指南
Python采集淘宝商品评论API接口及JSON数据返回全程指南
|
3月前
|
JSON API 数据安全/隐私保护
Python采集淘宝拍立淘按图搜索API接口及JSON数据返回全流程指南
通过以上流程,可实现淘宝拍立淘按图搜索的完整调用链路,并获取结构化的JSON商品数据,支撑电商比价、智能推荐等业务场景。
|
3月前
|
机器学习/深度学习 大数据 关系型数据库
基于python大数据的台风灾害分析及预测系统
针对台风灾害预警滞后、精度不足等问题,本研究基于Python与大数据技术,构建多源数据融合的台风预测系统。利用机器学习提升路径与强度预测准确率,结合Django框架实现动态可视化与实时预警,为防灾决策提供科学支持,显著提高应急响应效率,具有重要社会经济价值。
|
3月前
|
机器学习/深度学习 大数据 关系型数据库
基于python大数据的青少年网络使用情况分析及预测系统
本研究基于Python大数据技术,构建青少年网络行为分析系统,旨在破解现有防沉迷模式下用户画像模糊、预警滞后等难题。通过整合多平台亿级数据,运用机器学习实现精准行为预测与实时干预,推动数字治理向“数据驱动”转型,为家庭、学校及政府提供科学决策支持,助力青少年健康上网。
|
3月前
|
数据可视化 大数据 关系型数据库
基于python大数据技术的医疗数据分析与研究
在数字化时代,医疗数据呈爆炸式增长,涵盖患者信息、检查指标、生活方式等。大数据技术助力疾病预测、资源优化与智慧医疗发展,结合Python、MySQL与B/S架构,推动医疗系统高效实现。
|
数据安全/隐私保护 数据格式 Python
python爬取快手商品数据
python爬取快手商品数据
1051 1

推荐镜像

更多