(原文地址:http://www.ddlive.org/?p=664)
实例,官方有个实例教程,算是比较简单了,然后后面有更详细的一项项解释,不过老实讲我还真是看不太懂,很多地方没有给出实例,所以我在网上找了一大堆资料后,弄了一个实例。现在列出来跟大家分享。
1.实例初级目标:从一个网站的列表页抓取文章列表,然后存入数据库中,数据库包括文章标题、链接、时间
首先生成一个项目:scrapy startproject fjsen
目录结构大致如下:
先定义下items,打开items.py:
我们开始建模的项目,我们想抓取的标题,地址和时间的网站,我们定义域为这三个属性。这样做,我们编辑items.py,发现在开放目录目录。我们的项目看起来像这样:
# Define here the models for your scraped items
#
# See documentation in:
# http://doc.scrapy.org/topics/items.html
from scrapy.item import Item, Field
class FjsenItem(Item):
# define the fields for your item here like:
# name = Field()
title=Field()
link=Field()
addtime=Field()
大家想知道更加详细的话看:http://doc.scrapy.org/en/0.12/topics/items.html
第二步:定义一个spider,就是爬行蜘蛛(注意在工程的spiders文件夹下),他们确定一个初步清单的网址下载,如何跟随链接,以及如何分析这些内容的页面中提取项目(我们要抓取的网站是http://www.fjsen.com/j/node_94962.htm 这列表的所有十页的链接和时间)。
新建一个fjsen_spider.py,内容如下:
#-*- coding: utf-8 -*-
from scrapy.spider import BaseSpider
from scrapy.selector import HtmlXPathSelector
from fjsen.items import FjsenItem
class FjsenSpider(BaseSpider):
name="fjsen"
allowed_domains=["fjsen.com"]
start_urls=['http://www.fjsen.com/j/node_94962_'+str(x)+'.htm' for x in range(2,11)]+['http://www.fjsen.com/j/node_94962.htm']
def parse(self,response):
hxs=HtmlXPathSelector(response)
sites=hxs.select('//ul/li')
items=[]
for site in sites:
item=FjsenItem()
item['title']=site.select('a/text()').extract()
item['link'] = site.select('a/@href').extract()
item['addtime']=site.select('span/text()').extract()
items.append(item)
return items
name:是确定蜘蛛的名称。它必须是独特的,就是说,你不能设置相同的名称不同的蜘蛛。
allowed_domains:这个很明显,就是允许的域名,或者说爬虫所允许抓取的范围仅限这个列表里面的域名。
start_urls:是一个网址列表,蜘蛛会开始爬。所以,第一页将被列在这里下载。随后的网址将生成先后从数据中包含的起始网址。我这里直接是列出十个列表页。
parse():是蜘蛛的一个方法,当每一个开始下载的url返回的Response对象都会执行该函数。
这里面,我抓取每一个列表页中的<ul>下的<li>下的数据,包括title,链接,还有时间,并插入到一个列表中.
第三步,将抓取到的数据存入数据库中,这里就得在pipelines.py这个文件里面修改了
# Define your item pipelines here
#
# Don't forget to add your pipeline to the ITEM_PIPELINES setting
# See: http://doc.scrapy.org/topics/item-pipeline.html
import sqlite3
from os import path
from scrapy import signals
from scrapy.xlib.pydispatch import dispatcher
class FjsenPipeline(object):
def __init__(self):
self.conn=None
dispatcher.connect(self.initialize,signals.engine_started)
dispatcher.connect(self.finalize,signals.engine_stopped)
def process_item(self,item,spider):
self.conn.execute('insert into fjsen values(?,?,?,?)',(None,item['title'][0],'http://www.fjsen.com/'+item['link'][0],item['addtime'][0]))
return item
def initialize(self):
if path.exists(self.filename):
self.conn=sqlite3.connect(self.filename)
else:
self.conn=self.create_table(self.filename)
def finalize(self):
if self.conn is not None:
self.conn.commit()
self.conn.close()
self.conn=None
def create_table(self,filename):
conn=sqlite3.connect(filename)
conn.execute("""create table fjsen(id integer primary key autoincrement,title text,link text,addtime text)""")
conn.commit()
return conn
这里我暂时不解释,先继续,让这个蜘蛛跑起来再说。
第四步:修改setting.py这个文件:将下面这句话加进去
ITEM_PIPELINES=['fjsen.pipelines.FjsenPipeline']
接着,跑起来吧,执行:
scrapy crawl fjsen
就会在目前下生成一个data.sqlite的数据库文件,所有抓取到的数据都会存在这里。
分享到:
相关推荐
Scratch,是抓取的意思,这个Python的爬虫框架叫Scrapy,大概也是这个意思吧,就叫它:小刮刮吧。 小刮刮是一个为遍历爬行网站、分解获取数据而设计的应用程序框架,它可以应用在广泛领域:数据挖掘、信息处理和或者...
Scrapy是Python编程语言中的一款强大且高效的爬虫框架,专为数据抓取和网络爬虫设计。这个框架提供了一整套工具,使得开发者能够快速地构建起自己的爬虫项目,处理网页数据变得简单易行。在"Python Scrapy 爬虫框架...
本资源包包含了多个与Scrapy相关的学习材料,包括Scrapy的安装教程、爬虫代码实例源码以及一些轻量级爬虫的实现。 首先,"Scrapy安装所需要的软件"部分可能包含了安装Scrapy所需的环境配置和依赖库。在Python中,...
### Python爬虫Scrapy实例详解 #### 创建Scrapy项目 Scrapy是一款强大的开源网页抓取框架,被广泛应用于数据采集领域。本文档旨在通过一个具体的示例,详细讲解如何使用Scrapy创建并运行一个基本的爬虫项目。 ###...
Scrapy是一个强大的Python爬虫框架,它为开发者提供了一套高效、灵活的工具,用于处理网络数据抓取和处理任务。在这个"爬虫scrapy框架小实例"中,我们将探讨如何在DOS命令行环境下使用Scrapy来创建并运行一个简单的...
在本篇【Python爬虫实例——scrapy框架爬取拉勾网招聘信息】中,我们将探讨如何使用Python的Scrapy框架来抓取拉勾网上的Python相关职位信息。首先,我们需要理解整个爬取流程和分析思路。 1. **分析查询结果页**: ...
Scrapy是一个用于Python的快速高级网页抓取和网络爬虫框架,用于抓取网站并从页面中提取结构化的数据。它可以用于各种用途,包括收集特定类型的网页内容、为搜索引擎建立数据仓库或为任何类型的数据挖掘提供支持。 ...
Scrapy是一个强大的Python爬虫框架,它为开发者提供了一套高效、灵活的工具,使得爬取Web页面并从中提取结构化数据变得简单易行。在这个例子中,我们将深入探讨如何使用Scrapy构建一个爬虫并将数据存储到MySQL数据库...
Scrapy是一个强大的Python爬虫框架,专为数据抓取和处理设计。它的核心目标是让爬虫开发变得简单高效,适合各种规模的项目。在这个框架中,你可以自定义爬虫逻辑,灵活处理网页数据,同时提供了对反爬策略的应对措施...
Scrapy是一个强大的Python爬虫框架,它为开发者提供了一套完整的解决方案来构建网络爬虫,高效地抓取网页数据并进行处理。在这个“京东/天猫scrapy爬虫实例”中,我们将探讨如何利用Scrapy来抓取京东和天猫等电商...
Scrapy是用Python编写的开源Web抓取框架,它包括了爬取网页、解析响应、处理数据等爬虫开发的各个环节。Scrapy的核心组件有以下几个: 1. **Spider(蜘蛛)**:是Scrapy的主要工作单元,负责定义如何从一个或多个...
在这个"Scrapy框架爬虫小程序Demo"中,我们可以看到一个已经搭建好的基础爬虫项目,用于演示如何在Python环境下利用Scrapy进行网页抓取。 首先,我们需要确保已经正确安装了Python环境,并通过pip安装了Scrapy库。...
Scrapy是一个强大的Python爬虫框架,它为网络爬虫提供了高效的数据抓取、解析和处理功能。在使用Scrapy时,我们可能会遇到安装问题,尤其是依赖库中的某些组件。在这个场景中,`twisted.rar` 和 `Twisted-17.9.0....
Scrapy是一个强大的Python爬虫框架,它为开发者提供了一套高效、灵活的工具,用于爬取网站并提取结构化数据。本资料全集是针对Scrapy爬虫框架的基础知识及案例分析的综合资源,包括源码和文档,是学习和实践爬虫技术...
在这个Python爬虫实例项目中,我们主要探讨如何利用Python3的Scrapy框架和Pymysql库来抓取并存储电影网站的数据。Scrapy是一个强大的、用于网络爬虫开发的Python框架,而Pymysql则是Python连接MySQL数据库的库,两者...
**Python 爬虫Scrapy框架详解** Python作为一门强大的编程语言,在网络爬虫领域有着广泛的应用。其中,Scrapy框架是Python开发的一款高效、功能丰富的爬虫框架,专为爬取网站并提取结构化数据而设计。本课件源码将...
Scrapy是一个用于爬取网站数据和提取结构性数据的应用框架,编写在Python语言中。它能够为用户提供一个快速、高层次的网页爬取和网页内容处理的环境。Scrapy专为爬虫设计,可以用来爬取网站数据并从页面中提取结构化...
Scrapy是一款用于Web抓取的强大开源框架,主要应用于Python语言环境。Scrapy能够高效地从网站上提取所需数据,并将其存储为统一格式,支持JSON、XML等常见格式。对于想要从事数据挖掘、数据分析或者任何需要网络数据...
Scrapy是一个强大的Python爬虫框架,专为数据抓取和数据处理而设计。它提供了高效、灵活的结构,使得开发者可以快速地构建自己的网络爬虫项目。本资料包包含了`PythonSpider`课件和相关代码,是学习和实践Scrapy的...