Python3爬虫(十八) Scrapy框架(二)

Stella981
• 阅读 651

对Scrapy框架(一)的补充

Infi-chu:

http://www.cnblogs.com/Infi-chu/

Scrapy优点:
    提供了内置的 HTTP 缓存 ,以加速本地开发 。
    提供了自动节流调节机制,而且具有遵守 robots.txt 的设置的能力。
    可以定义爬行深度的限制,以避免爬虫进入死循环链接 。
    会自动保留会话。
    执行自动 HTTP 基本认证 。 不需要明确保存状态。
    可以自动填写登录表单。
    Scrapy 有一个 内置的中间件 , 可以自动设置请求中 的引 用( refeπer )头 。
    支持通过 3xx 响应重定向 ,也可以通过 HTML 元刷新。
    避免被网站使用的<noscript> meta 重定向困住,以检测没有 JS 支持的页面 。
    默认使用 css 选择器或 XPath 编写解析器。
    可以通过 Splash 或任何其他技术(如 Selenium ) 呈现 JavaScript 页面。
    拥有强大的社区支持和丰富 的插件和扩展来扩展其功能 。
    提供了通用的蜘蛛来抓取常见的格式 : 站点地图、 csv 和 XML。
    内置支持以多种格式 CJSON 、 csv 、 XML、 JSON-lines )导出收集的数据并将其存储
    在多个后端( FTP , S3 、本地文件系统)中。
    
Scrapy工作流程:
    1.引擎打开一个网站( open a domain ) ,找到处理该网站的 Spider 并向该 Spider 请求第
    一个要爬取的URL(s)。
    2.引擎从 Spider 中 获取第一个要爬取的 URL 并在调度器( Scheduler )中以 Request
    调度 。
    3.引擎向调度器请求下 一个要爬取的 URL 。
    4.调度器返回下一个要爬取的 URL 给引擎,引擎将 URL 通过下载中间件(请求( request)
    方向)转发给下载器( Downloader )。
    5.一旦页面下载完毕,下载器生成一个该页面的 Response ,并将其通过下载中间件(返回 ( Response)方向)发送给引擎。
    6.引擎从下载器中 接收 Response 并通过 Spider 中间件(输入方向)发送给 Spider 处理 。
    7. Spider 处理 Response 井返回爬取到的 Item 及(跟进的)新的 Request 给引擎。
    8.引擎将( Spider 返回的)爬取到的 Item 给 Item Pipeline ,将( Spider 返回的) Request
    给调度器。
    9. (从第 2 步)重复直到调度器中没有更多的 Request,引擎关闭对该网站 的执行进程。
    
scrapy各组件功能:
    1.引擎
    引擎负责控制数据流在系统中所有组件中流动,并在相应动作发生时触发事件。它也是程序的入口,可以通过 scrapy 指令方式在命令行启动,或者通编程方式实例化后调用 start 方法启动。
    2.调度器
    调度器从引擎接收爬取请求并将它们入队,以便之后引擎请求它们时提供给引擎。一般来说,我们并不需要直接对调度器进行编程,它是由 Scrapy 主进程进行自动控制的。
    3.下载器
    下载器负责处理产生最终发出的请求对象 Request 并将返回的响应生成 Response对象传递给蜘蛛。
    4. Spiders
    Spider 是用户编写用于分析响应结果并从中提取 Item或额外跟进的 URL 的类。每个 Spider 负责处理一个特定网站。
    5.数据管道
    Item Pipeline 负责处理被 Spider 提取出来的 Item。典型的处理有清理、验证及持久化。
    6.下载器中间件
    下载器中间件是在引擎及下载器之间的特定钩子( specific hook ),处理 Downloader传递给引擎的 Response。其提供了 一个简便的机制,通过插入自定义代码来扩展 Scrapy 的功能。
    7. Spider中间件
    Spider 中间件是在引擎及 Spider 之间的特定钩子( specific hook ),处理 Spider 的输入( Response )和输出(Items 及 Requests )。其提供了一个简便的机制,通过插入自定义代码来扩展 Scrapy 的功能。

Scrapy基本操作:
    安装
        pip install scrapy
        【Windows版注意事项】
        环境要求:需要Microsoft Visual C++ 14.0 或以上版本

    基本操作命令

# 创建爬虫项目
scrapy startproject 项目名
# 创建蜘蛛
scrapy genspider 文件名 爬取网站的域名
# 启动爬虫
scrapy crawl 文件名

    数据模型Item
        官方定义:爬取的主要目标就是从非结构的数据源中提取结构性数据,如网页。Scrapy提供Item类来满足这样的需求。Item对象是一种简单的容器,保存了爬取到的数据。其提供了类似于词典的API,以及用于声明可用字段的简单语法。
        声明Item:Item使用简单的class定义语法和Field对象来进行声明。
        Item字段(Item Fields):Field对象指明了对每个字段的元数据。

    蜘蛛Spider
        定义:Spider定义了爬取的动作以及分析某个网页的地方
        Spider内部循环顺序:
        1.以最初的URL初始化request,并设置回调函数。当该request下载完毕并返回时,生成response,并作为参数传给该回调函数。Spider中初始的request是通过调用start_requests()来获取的。此函数会读取其中的URL,并以parse为回调函数生成request。
        2.在回调函数中分析返回的内容,返回Item或者一个包括二者的可迭代容器。返回的request对象之后会经过scrapy处理,下载相应的内容,并调用设置的callback函数。
        3.在回调函数中,可以使用选择器或其他的解析器卡来进行页面分析,并根据分析的数据生成Item
        4.由Spider返回的Item将被存放到数据库(由某些Item Pipeline处理)或者使用Feed exports保存到文件中。

    管道Item Pipeline
        定义:当Item在Spider中被收集之后,他将被传递到此管道中,一些组件会按照一定的顺序对Item进行处理。
        作用:
        1.清理HTML数据
        2.验证爬取的数据(检查Item包含某些字段)
        3.去重
        4.将爬取结果保存到数据库中。
        实质:输入/输出
        分类:
        1.过滤性管道
        2.加工性管道
        3.存储性管道

点赞
收藏
评论区
推荐文章
blmius blmius
3年前
MySQL:[Err] 1292 - Incorrect datetime value: ‘0000-00-00 00:00:00‘ for column ‘CREATE_TIME‘ at row 1
文章目录问题用navicat导入数据时,报错:原因这是因为当前的MySQL不支持datetime为0的情况。解决修改sql\mode:sql\mode:SQLMode定义了MySQL应支持的SQL语法、数据校验等,这样可以更容易地在不同的环境中使用MySQL。全局s
皕杰报表之UUID
​在我们用皕杰报表工具设计填报报表时,如何在新增行里自动增加id呢?能新增整数排序id吗?目前可以在新增行里自动增加id,但只能用uuid函数增加UUID编码,不能新增整数排序id。uuid函数说明:获取一个UUID,可以在填报表中用来创建数据ID语法:uuid()或uuid(sep)参数说明:sep布尔值,生成的uuid中是否包含分隔符'',缺省为
待兔 待兔
5个月前
手写Java HashMap源码
HashMap的使用教程HashMap的使用教程HashMap的使用教程HashMap的使用教程HashMap的使用教程22
Jacquelyn38 Jacquelyn38
3年前
2020年前端实用代码段,为你的工作保驾护航
有空的时候,自己总结了几个代码段,在开发中也经常使用,谢谢。1、使用解构获取json数据let jsonData  id: 1,status: "OK",data: 'a', 'b';let  id, status, data: number   jsonData;console.log(id, status, number )
Stella981 Stella981
3年前
Python3:sqlalchemy对mysql数据库操作,非sql语句
Python3:sqlalchemy对mysql数据库操作,非sql语句python3authorlizmdatetime2018020110:00:00coding:utf8'''
Wesley13 Wesley13
3年前
mysql设置时区
mysql设置时区mysql\_query("SETtime\_zone'8:00'")ordie('时区设置失败,请联系管理员!');中国在东8区所以加8方法二:selectcount(user\_id)asdevice,CONVERT\_TZ(FROM\_UNIXTIME(reg\_time),'08:00','0
Wesley13 Wesley13
3年前
00:Java简单了解
浅谈Java之概述Java是SUN(StanfordUniversityNetwork),斯坦福大学网络公司)1995年推出的一门高级编程语言。Java是一种面向Internet的编程语言。随着Java技术在web方面的不断成熟,已经成为Web应用程序的首选开发语言。Java是简单易学,完全面向对象,安全可靠,与平台无关的编程语言。
Stella981 Stella981
3年前
Django中Admin中的一些参数配置
设置在列表中显示的字段,id为django模型默认的主键list_display('id','name','sex','profession','email','qq','phone','status','create_time')设置在列表可编辑字段list_editable
Wesley13 Wesley13
3年前
MySQL部分从库上面因为大量的临时表tmp_table造成慢查询
背景描述Time:20190124T00:08:14.70572408:00User@Host:@Id:Schema:sentrymetaLast_errno:0Killed:0Query_time:0.315758Lock_
Python进阶者 Python进阶者
11个月前
Excel中这日期老是出来00:00:00,怎么用Pandas把这个去除
大家好,我是皮皮。一、前言前几天在Python白银交流群【上海新年人】问了一个Pandas数据筛选的问题。问题如下:这日期老是出来00:00:00,怎么把这个去除。二、实现过程后来【论草莓如何成为冻干莓】给了一个思路和代码如下:pd.toexcel之前把这