目标是把http://www.gg4493.cn/主页上所有数据爬取下来,获得每一篇新闻的名称、时间、来源以及正文。
接下来分解目标,一步一步地做。
步骤1:将主页上所有链接爬取出来,写到文件里。
python在获取html方面十分方便,寥寥数行代码就可以实现我们需要的功能。
复制代码代码如下:
def getHtml(url):
page = urllib.urlopen(url)
html = page.read()
page.close()
return html
我们都知道html链接的标签是“a”,链接的属性是“href”,也就是要获得html中所有tag=a,attrs=href 值。
查阅了资料,一开始我打算用HTMLParser,而且也写出来了。但是它有一个问题,就是遇到中文字符的时候无法处理。
复制代码代码如下:
class parser(HTMLParser.HTMLParser):
def handle_starttag(self, tag, attrs):
if tag == 'a':
for attr, value in attrs:
if attr == 'href':
print value
后来使用了SGMLParser,它就没有这个问题。
复制代码代码如下:
class URLParser(SGMLParser):
def reset(self):
SGMLParser.reset(self)
self.urls = []
def start_a(self,attrs):
href = [v for k,v in attrs if k=='href']
if href:
self.urls.extend(href)
SGMLParser针对某个标签都需要重载它的函数,这里是把所有的链接放到该类的urls里。
复制代码代码如下:
lParser = URLParser()#分析器来的
socket = urllib.urlopen("http://www.gg4493.cn/")#打开这个网页
fout = file('urls.txt', 'w')#要把链接写到这个文件里
lParser.feed(socket.read())#分析啦
reg = 'http://www.gg4493.cn/.*'#这个是用来匹配符合条件的链接,使用正则表达式匹配
pattern = re.compile(reg)
for url in lParser.urls:#链接都存在urls里
if pattern.match(url):
fout.write(url+'\n')
fout.close()
来源:http://www.m4493.cn.
相关推荐
本书《Python网络数据采集》提供了丰富的实例,旨在帮助读者深入理解和掌握这门技术。 首先,我们要理解“Python爬虫”是实现网络数据采集的核心工具。Python语言因其简洁、易读的语法和强大的库支持,成为数据爬取...
1. Python基础:书中首先介绍了Python的基础知识,包括语法特性、数据类型、控制结构和函数,这些都是编写爬虫程序的基础。Python的简洁性和易读性使得它成为爬虫开发的首选语言。 2. 网页结构与HTML:深入解析HTML...
三、Python采集系统 1. **系统架构**:构建一个数据采集系统通常包括数据源(如传感器或API)、数据处理(清洗、转换)和数据存储(数据库或文件)三个部分。Python能轻松处理这些环节。 2. **多线程/异步**:在...
Python 爬虫源码实例合集,本人亲测修改,这些源码是研究搜索引擎爬虫的书籍中的源代码,一共包括了9章内容,源代码中有很多模拟爬虫抓取网页的例子,比如模拟Google搜索引擎抓取等,几乎每一个代码文件都涉及到网络...
本主题聚焦于“Python网络数据采集(代码)”,它提供了书籍配套的代码实例,旨在帮助读者深入理解和掌握Python数据采集的技术。我们将探讨以下几个核心知识点: 1. **网络请求库**:Python中有许多用于发送HTTP...
在本篇文章中小编给大家整理的是关于Python批量查询关键词微信指数实例方法以及相关代码,需要的朋友们可以跟着学习下。
python 使用 snap7 实现西门子 plc 1200的读写 地址读写
阿里云Python采集脚本是一种利用Python编程语言与阿里云接口进行数据抓取和处理的工具。在当前数字化时代,数据的获取、分析和利用成为企业竞争力的重要组成部分,而Python因其简洁明了的语法和丰富的库支持,成为了...
本文实例讲述了python采集百度百科的方法。分享给大家供大家参考。具体如下: #!/usr/bin/python # -*- coding: utf-8 -*- #encoding=utf-8 #Filename:get_baike.py import urllib2,re import sys def getHtml(url,...
本文介绍了一种基于Python编程语言和西门子S7系列PLC(可编程逻辑控制器)以太网的液压机过程数据采集系统设计。 首先,本文提到了液压机工作时过程数据的重要性和现有的数据采集技术的不足。在此背景下,作者提出...
Python爬虫实战是一份Python爬虫实战指南,内容涵盖数据采集、处理和分析的全过程。通过该资源,读者可以了解Python爬虫的基本原理、常用库和工具,学习如何使用Python编写爬虫程序并采集数据,同时还能学习如何使用...
解锁网络数据的宝藏:Python爬虫工具与教程集合 一、探索网络信息的无限宝藏 在互联网的海洋中,蕴藏着海量的有价值信息。如何合法、高效地获取这些信息?Python爬虫工具与教程为您揭开这一神秘面纱。通过这些资源...
【Python 爬虫实例——宋...总结来说,Python爬虫实例“宋城路”涉及了网络请求、HTML解析、数据提取和存储等多个环节,通过学习和实践,我们可以掌握爬虫的基本技能,并在此基础上进行更复杂的数据采集和分析任务。
Python网络爬虫教程 数据采集 信息提取课程 06-实例1-中国大学排名爬虫(共26页).pptx Python网络爬虫教程 数据采集 信息提取课程 07-Re(正则表达式)库入门(共51页).pptx Python网络爬虫教程 数据采集 信息提取...
Python爬虫在数据采集领域广泛应用,因其高效、易学的特点备受青睐。 Python爬虫的架构主要由五个部分组成:调度器、URL管理器、网页下载器、网页解析器和应用程序。调度器负责协调各个部分的工作,URL管理器则防止...
在这个名为"Python爬虫_城市公交、地铁站点和线路数据采集实例含程序源代码.zip"的压缩包中,我们可以预见到一个使用Python编程语言进行网络爬虫开发的实践案例,专注于抓取城市公交和地铁的相关数据。这个实例可能...
"爬虫代码实例源码大全(纯源码不带视频的实例)"这部分是学习Python爬虫的重要资料。源码实例通常包括了各种常见的爬虫应用场景,如爬取网页HTML内容、解析JSON或XML数据、处理JavaScript加载的内容、登录验证、...
互联网地图上有大量的信息,包含公交、地铁等数据,解析其数据反馈方式,可以通过Python爬虫采集。闲言少叙,接下来将详细介绍如何使用Python爬虫爬取城市公交、地铁站点和数据。 首先,爬取研究城市的所有公交和...
Python网络爬虫教程 数据采集 信息提取课程 06-实例1-中国大学排名爬虫(共26页).pptx Python网络爬虫教程 数据采集 信息提取课程 07-Re(正则表达式)库入门(共51页).pptx Python网络爬虫教程 数据采集 信息提取...