Scrapy和Django实现蚌埠医学院手机新闻网站制作

简介:

最终效果(不看效果就讲过程都是耍流氓):
列表页、详情页展示

实现过程如下:

框架:

  • Scrapy:数据采集
  • Django:数据呈现

目标网站:
蚌埠医学院 学院新闻列表:http://www.bbmc.edu.cn/index.php/view/viewcate/0/

蚌埠医学院学院 新闻列表 截图

第一步:数据抓取

新建爬虫项目

在终端中执行命令

srapy startproject bynews

执行完毕,自动新建好项目文件
爬虫项目目录

编写爬虫代码

在爬虫目录spider中,新建具体爬虫的by_spider.py文件:

by_spider文件

爬虫代码功能说明:

  • 新闻列表自动翻下一页,直到结束,每个新闻列表页提取进如新闻详情页的url
  • 逐个新闻详情页面进入,提取新闻名称,发文机构,发文时间,新闻内容

爬虫源代码内容:

import scrapy
from bynews.items import BynewsItem
import re
class BynewsSpider(scrapy.Spider):
    name = 'news'
    start_urls = ['http://www.bbmc.edu.cn/index.php/view/viewcate/0/']
    allowed_domains = ['bbmc.edu.cn']

    def parse(self, response):
        news = response.xpath("//div[@class='cate_body']//ul/li")
        next_page = response.xpath("//div[@class='pagination']/a[contains(text(),'>')]/@href").extract_first()
        href_urls = response.xpath("//div[@class='cate_body']/ul/li/a/@href").extract()
        for href in href_urls:
            yield scrapy.Request(href,callback=self.parse_item)
        if next_page is not None:
            yield scrapy.Request(next_page)

    def parse_item(self, response):
        item = BynewsItem() 
        item['title'] = response.xpath("//div[@id='news_main']/div/h1/text()").extract_first()
        # 获取 作者和发文日期
        string = response.xpath("//div[@class='title_head']/span/text()").extract_first()
        # 通过分割获取文章发布日期
        full_date = string.split('/')
        year = full_date[0][-4:]
        month = full_date[1]
        day = full_date[2]
        item['post_date'] = year + month +day
        # 通过正则表达式获取作者
        matchObj = re.search(r'\[.*\]',string)
        # 去除两边的中括号
        string = matchObj.group()
        string = string[1:]
        string = string[:-1]
        item['author'] = string
        contents = response.xpath("//div[@id='news_main']/div/div/span/text()").extract_first()
        text = ''
        for content in contents :
            text = text + content
        item['content'] = text
        yield item

提取的数据结构items.py文件:

import scrapy
class BynewsItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    title = scrapy.Field()
    author = scrapy.Field()
    post_date = scrapy.Field()
    content = scrapy.Field()

爬虫项目的settings.py文件,增加请求头,关闭爬虫协议,仅放修改的部分,其他的默认即可:

USER_AGENT = 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36'
ROBOTSTXT_OBEY = False
DEFAULT_REQUEST_HEADERS = {
  'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
  'Accept-Language': 'en',
}

保存爬取数据

准备工作就绪后,执行scrapy crawl news -o news.csv命令开始抓取数据,并且报存到文件news.csv中,方便后续建站导入数据:
爬虫抓取数据过程图

采集好的数据:
csv文件图

爬虫过程结束,准备建站啦~

第二步:数据呈现

新建项目

在终端中执行命令:django-admin startproject 项目名

新建应用

执行命令:python manage.py startapp bynews新建应用
Django目录截图

Django采用MVC架构,需要写的内容比较多,就不一一放图了,直接甩上代码:

项目目录下

urls.py文件:

from django.contrib import admin
from django.urls import include,path
urlpatterns = [
    path('admin/', admin.site.urls),
    path('blog/', include('blog.urls')),
    # 蚌医新闻
    path('bynews/',include('bynews.urls')),
]

settings.py文件(仅放修改部分):

INSTALLED_APPS = [
    'blog.apps.BlogConfig',
    'bynews.apps.BynewsConfig',
    'django.contrib.admin',
    'django.contrib.auth',
    'django.contrib.contenttypes',
    'django.contrib.sessions',
    'django.contrib.messages',
    'django.contrib.staticfiles',
]

bynews应用目录下:

模型models.py文件(模型文件弄好后,需要执行数据迁移什么的命令,Django保证了所有操作都是基于面向对象,十分强大):

from django.db import models
class Bynews(models.Model):
    title = models.CharField(max_length=30, default='Title')
    author = models.CharField(null = True,max_length=30)
    content= models.TextField(null = True)
    def __str__(self):
        return self.title

视图views.py文件:

from django.shortcuts import render,get_object_or_404
from .models import Bynews

def index(request):
    news = Bynews.objects.order_by('id')[:30]
    return render(request, 'bynews/newslist.html',{'news_list':news})

def detail(request,news_id):
    news = get_object_or_404(Bynews,pk=news_id)
    return render(request, 'bynews/detail.html', {'news':news})

urls.py文件:

from django.urls import path 
from . import views

app_name = 'bynews'

urlpatterns = [
    # ex:/bynews/
    path('', views.index, name='index'),
    # ex:/bynews/4/
    path('<int:news_id>/', views.detail, name = 'detail'),
    #path('<int:news_id>/vote/', views.form ,name='form'),
]

在应用目录下新建template文件夹用来存放模板文件:
模板文件

放上一个新闻列表页的模板newslist文件,需要注意其中的url生成方式,static的生成方式:

{% load static %}
<!DOCTYPE html>
<html lang="en" class="app">
<head>
  <meta charset="utf-8" />
  <meta name="viewport" content="initial-scale=1.0, maximum-scale=1.0, user-scalable=no" />
  <meta name="description" content="" />
  <meta name="keywords" content="" />
  <link rel="stylesheet" type="text/css" href="{% static 'bynews/css/style.css' %}">
  <title>蚌埠医学院 - 新闻列表</title>
</head>
<body>
    <header class="header">
            <h1>蚌埠医学院</h1>
            <h2>新闻列表</h2>
        </header>
    <ul class="list">
    {% for news in news_list %}
          <li>
            <a href="default.htm">
              <i class="fl"></i>
              <span class="fl"><a href="{% url 'bynews:detail' news.id %}" >{{news.title}}</a></span>
              <em class="fl"> </em>
            </a>
          </li>
    {% endfor %}
    </ul>


    <script src="{% static 'bynews/js/vue.js' %}" type="text/javascript"></script>
        <script>
            
        </script>
</body>
</html>

最终效果(请忽视正文内容不全问题,这是采集没弄好,懒得弄了,基本想法实现了就行):

列表页、详情页展示

相关文章
|
6月前
|
数据采集 中间件 Python
Scrapy爬虫:利用代理服务器爬取热门网站数据
Scrapy爬虫:利用代理服务器爬取热门网站数据
|
6月前
|
缓存 数据挖掘 数据库
104-Django开发在线美食购物网站
美味小厨在线购物网站是基于Python和Django构建的电商平台,提供商品展示、搜索过滤、问题反馈、购物功能、商品详情查看、产品编辑添加、多用户及站点管理、订单管理等服务。采用Django框架实现高效、稳定且可扩展的系统,前后端分离以提升性能,支持数据库优化和缓存技术,注重用户数据安全。未来计划优化用户体验,拓展更多功能,并加强数据分析。
50 1
|
27天前
|
Python
基于python-django的matlab护照识别网站系统
基于python-django的matlab护照识别网站系统
15 0
|
27天前
|
安全 Java Python
基于python-django的Java网站全站漏洞检测系统
基于python-django的Java网站全站漏洞检测系统
30 0
|
3月前
|
数据采集 数据可视化 数据挖掘
基于python django的scrapy去哪儿网数据采集与分析,包括登录注册和可视化大屏,有md5加密
本文介绍了一个基于Python和Django框架,使用Scrapy进行去哪儿网数据采集与分析的项目,包括实现登录注册功能、MD5加密以及通过可视化大屏展示分析结果的综合系统。
基于python django的scrapy去哪儿网数据采集与分析,包括登录注册和可视化大屏,有md5加密
|
3月前
|
API Java 数据库连接
从平凡到卓越:Hibernate Criteria API 让你的数据库查询瞬间高大上,彻底告别复杂SQL!
【8月更文挑战第31天】构建复杂查询是数据库应用开发中的常见需求。Hibernate 的 Criteria API 以其强大和灵活的特点,允许开发者以面向对象的方式构建查询逻辑,同时具备 SQL 的表达力。本文将介绍 Criteria API 的基本用法并通过示例展示其实际应用。此 API 通过 API 构建查询条件而非直接编写查询语句,提高了代码的可读性和安全性。无论是简单的条件过滤还是复杂的分页和连接查询,Criteria API 均能胜任,有助于提升开发效率和应用的健壮性。
102 0
|
3月前
|
前端开发 数据处理 开发者
解锁Django模板系统终极奥义!揭秘高效前端渲染秘籍,让你的网站秒变炫酷黑科技!
【8月更文挑战第31天】Django作为Python的高级Web框架,内置的模板系统支持动态HTML渲染。本文通过在线书店案例,详细介绍Django模板系统的设置与高效渲染技巧,包括创建模板文件、编写视图函数及URL配置。通过合理使用过滤器、深度查询和模板继承等技巧,提升前端渲染效率和安全性,优化Web应用开发流程。
23 0
|
3月前
|
Linux Shell 数据库
python Django教程 之 安装、基本命令、视图与网站
python Django教程 之 安装、基本命令、视图与网站
|
3月前
|
存储 监控 开发工具
Django 后端架构开发:手机与邮箱验证码接入、腾讯云短信SDK和网易邮箱
Django 后端架构开发:手机与邮箱验证码接入、腾讯云短信SDK和网易邮箱
62 0
|
5月前
|
数据库 数据安全/隐私保护 Python
Web实战丨基于django+html+css+js的电子商务网站
Web实战丨基于django+html+css+js的电子商务网站
76 3