Day 16: Goose Extractor —— 好用的文章提取工具

简介: 今天的“30天学习30种新技术”的主题是如何使用Python进行文章提取。这几个月来,我对文章提取很感兴趣,因为我想写一个Prismatic克隆。Prismatic创建基于用户兴趣的新闻源。提取文章的主要内容、图片和其他元信息对大多数类似Prismatic的内容发现站点很有用。本文中,我们将学习如何使用Python的goose-extractor包来完成这个任务。我们首先介绍一些基础知识,然后使用Goose Extractor 的 API 来开发一个简单的Flask应用。

编者注:我们发现了有趣的系列文章《30天学习30种新技术》,正在翻译,一天一篇更新,年终礼包。下面是第 16 天的内容。


今天的“30天学习30种新技术”的主题是如何使用Python进行文章提取。这几个月来,我对文章提取很感兴趣,因为我想写一个Prismatic克隆。Prismatic创建基于用户兴趣的新闻源。提取文章的主要内容、图片和其他元信息对大多数类似Prismatic的内容发现站点很有用。本文中,我们将学习如何使用Python的goose-extractor包来完成这个任务。我们首先介绍一些基础知识,然后使用Goose Extractor 的 API 来开发一个简单的Flask应用。

image.png

Goose Extractor是什么?

Goose Extractor是一个Python的开源文章提取库。可以用它提取文章的文本内容、图片、视频、元信息和标签。Goose本来是由Gravity.com编写的Java库,最近转向了scala。

Goose Extractor网站是这么介绍的:

Goose Extractor完全用Python重写了。目标是给定任意资讯文章或者任意文章类的网页,不仅提取出文章的主体,同时提取出所有元信息以及图片等信息。


为什么关心Goose Extractor

我决定学习Goose Extractor是因为:

  1. 我打算开发需要文章提取功能的应用。Goose Extractor基于NLTKBeautiful Soup,分别是文本处理和HTML解析的领导者。
  2. 我想了解如何用Python进行文章提取。


安装Goose Extractor

我们首先需要安装Python和virtualenv,本文使用的Python版本是2.7

然后使用如下命令安装:

mkdir myapp

cd myapp

virtualenv venv --python=python2.7

. venv/bin/activate

pip install goose-extractor

GitHub仓库

今天的示例程序的代码可从GitHub取得。


应用

示例应用运行在 OpenShift 上 http://gooseextractor-t20.rhcloud.com/ 用户可以提交链接,应用会显示标题,主要图片和正文的前200个字符。

image.png

我们将开发一个简单的REST API Flask应用。如果你不了解Flask,你可以看这篇我以前写的文章

安装Flask:

. venv/bin/activate

pip install flask

myapp目录下创建app.py,内容如下:

from flask import Flask, request, render_template,jsonify

from goose import Goose

app = Flask(__name__)

@app.route('/')

@app.route('/index')

defindex():

   return render_template('index.html')

@app.route('/api/v1/extract')

defextract():

   url = request.args.get('url')

   g = Goose()

   article = g.extract(url=url)

   response = {'title' : article.title , 'text' : article.cleaned_text[:250],'image': article.top_image.src}

   return jsonify(response)

if __name__ == "__main__":

   app.run(debug=True)

解释下上面的代码:

  1. flask包导入了Flask类、request对象、jsonify函数和render_template函数。
  2. goose包导入Goose类。
  3. 定义了/index的路由。若用户向//index发送GET请求,会渲染index.html页面。
  4. 定义了/api/v1/extract路由。我们从请求对象中获取url,然后创建了一个Goose类的实例。接着提取文章。最后创建一个json对象并返回该对象。json对象中包括标题、文本和主要图片。
  5. 最后我们使用python app.py命令来启动开发服务器,以运行应用。我们把上面的代码复制到app.py文件中。我们同时通过Debug=True开启了调试,这样当意料之外的情况出现时,浏览器就可以提供一个交互式的调试器。开启调试的另一个好处是,改动文件 之后,服务会自动重新加载。我们可以让调试器在后台运行,然后继续在我们的应用上工作。这提供了高效的开发环境。

我们将在index.html中使用Twitter Bootstrap来添加样式。我们同时使用了jQuery,以便实现keyup事件触发REST调用。退格、制表符、回车、上、下、左、右不会触发REST调用。

<!DOCTYPE html>

<html>

<head>

   <title>Extract Title, Text, and Image from URL</title>

   <metaname="viewport"content="width=device-width, initial-scale=1.0">

   <linkrel="stylesheet"type="text/css"href="static/css/bootstrap.css">

   <styletype="text/css">

   body {

     padding-top:60px;

     padding-bottom: 60px;

   }

 </style>

</head>

<body>

<divclass="navbar navbar-inverse navbar-fixed-top">

     <divclass="container">

       <divclass="navbar-header">

         <buttontype="button"class="navbar-toggle"data-toggle="collapse"data-target=".navbar-collapse">

           <spanclass="icon-bar"></span>

           <spanclass="icon-bar"></span>

           <spanclass="icon-bar"></span>

         </button>

         <aclass="navbar-brand"href="#">TextExtraction</a>

       </div>

   </div>

 </div>

<divid="main"class="container">

   <formclass="form-horizontal"role="form"id="myform">

       <divclass="form-group">

           <divclass="col-lg-4">

               <inputtype="url"id="url"name="url"  class="form-control"placeholder="Url you want to parse"required>

           </div>

       </div>

       <divclass="form-group">

           <inputtype="submit"value="Extract"id="submitUrl"class="btn btn-success">

       </div>

   </form>

</div>

<divid="loading"style="display:none;"class="container">

   <imgsrc="/static/images/loader.gif"alt="Please wait.." />

</div>

<divid="result"class="container">

</div>

<scripttype="text/javascript"src="static/js/jquery.js"></script>

<scripttype="text/javascript">

   $("#myform").on("submit", function(event){

       $("#result").empty();

       event.preventDefault();

       $('#loading').show();

       var url = $("#url").val()

       $.get('/api/v1/extract?url='+url,function(result){

           $('#loading').hide();

           $("#result").append("<h4>"+result.title+"</h4>");

           $("#result").append("<img src='"+result.image+"' height='300' width='300'</img>");

           $("#result").append("<p class='lead'>"+result.text+"</p>");

   })

   });

</script>

</body>

</html>

你可以从github 仓库中复制js和css文件。

上面的HTML文件中,表单提交触发REST调用。当我们接受到回应后,将它附加到resultdiv中。


部署到云端

在我们部署应用到OpenShift之前,我们需要先设置一下:

  1. 注册一个OpenShift账号。注册是完全免费的,Red Hat给每个用户三枚免费的Gear,可以用Gear运行你的应用。在写作此文的时候,每个用户能免费使用总共 1.5 GB 内存和 3 GB 硬盘空间。
  2. 安装 rhc客户端工具rhc是ruby gem,因此你的机子上需要装有 ruby 1.8.7以上版本。 只需输入 sudo gem install rhc即可安装 rhc 。如果你已经安装过了,确保是最新版。运行sudo gem update rhc即可升级。关于配置rhc命令行工具的详细信息,请参考: https://openshift.redhat.com/community/developers/rhc-client-tools-install
  3. 使用 rhc 的 setup 命令配置你的 OpenShift 账号。这个命令会帮助你创建一个命名空间,同时将你的ssh公钥上传至 OpenShift 服务器。

设置之后,我们可以通过如下命令创建一个新的OpenShift应用。

rhccreate-appday16demopython-2.7--from-codehttps://github.com/shekhargulati/day16-goose-extractor-demo.git--timeout180

这会为我们创建一个名为gear的应用容器,并自动配置相应的SELinux政策和cgroup设置。OpenShift同时会为我们创建一个私有的git仓库,并将其克隆到本地。最后,OpenShift会自动配置DNS。应用可以在如下地址访问 http://gooseextractor-t20.rhcloud.com/


好了,这就是今天的内容。请不断反馈。

相关文章
|
5月前
|
机器学习/深度学习 存储 计算机视觉
python深度学习图像处理CSV文件分类标签图片到各个文件夹
python深度学习图像处理CSV文件分类标签图片到各个文件夹
174 0
|
2月前
|
XML 数据格式 Python
将xml标签转换为txt(voc格式转换为yolo方便进行训练)
该文章提供了一个Python脚本,用于将VOC格式的XML标签文件转换为YOLO训练所需的TXT格式,包括修改数据集类别、输入图像与标注文件夹地址、转换过程和结果展示。
将xml标签转换为txt(voc格式转换为yolo方便进行训练)
|
2月前
|
Python
从bag包中提取图片和点云数据为pcd格式点云文件
从bag包中提取图片和点云数据为pcd格式点云文件
46 0
|
2月前
|
TensorFlow 算法框架/工具
【Tensorflow】图解tf.image.extract_patches的用法--提取图片特定区域
文章通过图解和示例详细解释了TensorFlow中tf.image.extract_patches函数的用法,展示了如何使用该函数从图像中提取特定区域或分割图像为多个子图像。
41 0
|
3月前
|
自然语言处理 PyTorch API
`transformers`库是Hugging Face提供的一个开源库,它包含了大量的预训练模型和方便的API,用于自然语言处理(NLP)任务。在文本生成任务中,`transformers`库提供了许多预训练的生成模型,如GPT系列、T5、BART等。这些模型可以通过`pipeline()`函数方便地加载和使用,而`generate()`函数则是用于生成文本的核心函数。
`transformers`库是Hugging Face提供的一个开源库,它包含了大量的预训练模型和方便的API,用于自然语言处理(NLP)任务。在文本生成任务中,`transformers`库提供了许多预训练的生成模型,如GPT系列、T5、BART等。这些模型可以通过`pipeline()`函数方便地加载和使用,而`generate()`函数则是用于生成文本的核心函数。
|
5月前
|
自然语言处理 算法
文本分析-使用jieba库实现TF-IDF算法提取关键词
文本分析-使用jieba库实现TF-IDF算法提取关键词
273 1
|
5月前
要将ModelScope的应用检测模型转换为ONNX格式或RKNN格式
要将ModelScope的应用检测模型转换为ONNX格式或RKNN格式
310 1
|
机器学习/深度学习 人工智能 计算机视觉
|
自然语言处理 算法 Python
|
算法 PyTorch 算法框架/工具
【DSW Gallery】基于EasyCV的STDC图像语义分割示例
EasyCV是基于Pytorch,以自监督学习和Transformer技术为核心的 all-in-one 视觉算法建模工具,并包含图像分类,度量学习,目标检测,姿态识别等视觉任务的SOTA算法。本文将为您介绍如何在PAI-DSW中使用EasyCV训练轻量化语义分割模型STDC
【DSW Gallery】基于EasyCV的STDC图像语义分割示例