`

(转载)python爬虫入门

 
阅读更多

转载地址: http://blog.csdn.net/bo_wen_/article/details/50868339

 

步骤1: 安装2个包

            requests和beautifulsoup

 

步骤2:导入代码,并执行

    

import requests
import csv
import random
import time
import socket
import http.client
# import urllib.request
from bs4 import BeautifulSoup

def get_content(url , data = None):
    header={
        'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
        'Accept-Encoding': 'gzip, deflate, sdch',
        'Accept-Language': 'zh-CN,zh;q=0.8',
        'Connection': 'keep-alive',
        'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/43.0.235'
}
    timeout = random.choice(range(80, 180))
    while True:
        try:
            rep = requests.get(url,headers = header,timeout = timeout)
            rep.encoding = 'utf-8'
# req = urllib.request.Request(url, data, header)
            # response = urllib.request.urlopen(req, timeout=timeout)
            # html1 = response.read().decode('UTF-8', errors='ignore')
            # response.close()
break
# except urllib.request.HTTPError as e:
        #         print( '1:', e)
        #         time.sleep(random.choice(range(5, 10)))
        #
        # except urllib.request.URLError as e:
        #     print( '2:', e)
        #     time.sleep(random.choice(range(5, 10)))
except socket.timeout as e:
            print( '3:', e)
            time.sleep(random.choice(range(8,15)))

        except socket.error as e:
            print( '4:', e)
            time.sleep(random.choice(range(20, 60)))

        except http.client.BadStatusLine as e:
            print( '5:', e)
            time.sleep(random.choice(range(30, 80)))

        except http.client.IncompleteRead as e:
            print( '6:', e)
            time.sleep(random.choice(range(5, 15)))

    return rep.text
    # return html_text
def get_data(html_text):
    final = []
    bs = BeautifulSoup(html_text, "html.parser")  # 创建BeautifulSoup对象
body = bs.body # 获取body部分
data = body.find('div', {'id': '7d'})  # 找到id为7d的div
ul = data.find('ul')  # 获取ul部分
li = ul.find_all('li')  # 获取所有的li
for day in li: # 对每个li标签中的内容进行遍历
temp = []
        date = day.find('h1').string  # 找到日期
temp.append(date)  # 添加到temp中
inf = day.find_all('p')  # 找到li中的所有p标签
temp.append(inf[0].string,)  # 第一个p标签中的内容(天气状况)加到temp中
if inf[1].find('span') is None:
            temperature_highest = None # 天气预报可能没有当天的最高气温(到了傍晚,就是这样),需要加个判断语句,来输出最低气温
else:
            temperature_highest = inf[1].find('span').string  # 找到最高温
temperature_highest = temperature_highest.replace('℃', '')  # 到了晚上网站会变,最高温度后面也有个℃
temperature_lowest = inf[1].find('i').string  # 找到最低温
temperature_lowest = temperature_lowest.replace('℃', '')  # 最低温度后面有个℃,去掉这个符号
temp.append(temperature_highest)   # 将最高温添加到temp中
temp.append(temperature_lowest)   #将最低温添加到temp中
final.append(temp)   #将temp加到final中
return final

def write_data(data, name):
    file_name = name
    with open(file_name, 'a', errors='ignore', newline='') as f:
            f_csv = csv.writer(f)
            f_csv.writerows(data)

if __name__ == '__main__':
                url = 'http://www.weather.com.cn/weather/101190401.shtml'
html = get_content(url)
                result = get_data(html)
                write_data(result, 'weather.csv')

 

步骤3: 结果如下:

23日(今天) 多云 19 12
24日(明天) 多云 20 12
25日(后天) 多云 21 14
26日(周四) 多云 21 14
27日(周五) 多云 22 14
28日(周六) 多云 21 15
29日(周日) 多云转晴 21 11

 

分享到:
评论

相关推荐

    Python爬虫入门教程:超级简单的Python爬虫教程.pdf

    ### Python爬虫入门教程知识点详解 #### 一、理解网页结构 在进行Python爬虫开发之前,首先要了解网页的基本构成。网页通常包含三个主要部分:HTML(超文本标记语言)、CSS(层叠样式表)以及JavaScript(一种常用...

    Python爬虫入门教程:超级简单的Python爬虫教程Python入门实例中文PDF版最新版本

    Python爬虫入门教程是一篇超详细介绍 Python 爬虫入门的教程,从实战出发,适合初学者。读者只需在阅读过程紧跟文章思路,理清相应的实现代码,30 分钟即可学会编写简单的 Python 爬虫。 Python 爬虫入门实例主要...

    python爬虫从入门到精通(模块)

    这份文档旨在帮助想要学习Python爬虫的初学者,从入门到精通逐步提升自己的技能。以下是我们将要涵盖的主题: ## 入门篇 1. Python爬虫简介 2. Requests库的使用 3. Beautiful Soup库的使用 4. 爬虫实战:爬取百度...

    python 爬虫入门ppt

    很好的资源,适合想入门 python 爬虫的同学,讲解很细,重点突出。

    Python爬虫入门:如何爬取招聘网站并进行分析

    Python爬虫入门知识点详细解析: 一、Python爬虫概念与应用 网络爬虫是按照一定的规则,自动抓取互联网信息的程序或脚本。它可以模拟用户浏览网页的行为,对网页内容进行提取、保存。Python爬虫由于其代码简洁、库...

    Python爬虫入门到实战 (二花) PDF版

    总的来说,Python爬虫的入门到实战是一个逐步深入的过程,需要从基础语法开始,逐步学习网络请求、网页解析、数据提取等技能,并在实际的项目中不断实践和提高。通过学习和应用Python爬虫技术,可以有效地从互联网上...

    Python爬虫入门教程:超级简单的Python爬虫教程 python

    Python爬虫入门教程:超级简单的Python爬虫教程

    Python爬虫入门与实战中文完整版pdf最新版本

    《Python爬虫入门与实战》从实战出发,适合初学者。读者只需在阅读过程紧跟文章思路,理清相应的实现代码,30 分钟即可学会编写简单的 Python 爬虫。 这篇 Python 爬虫教程主要讲解以下 5 部分内容: 了解网页; ...

    "玩转Python爬虫——入门与实践"课程源码

    在“玩转Python爬虫——入门与实践”这门课程中,你将深入学习到Python爬虫的基础知识和实战技巧。Python爬虫是数据采集的重要工具,尤其在大数据时代,爬虫技术对于获取网络上的非结构化信息具有举足轻重的作用。本...

    Python爬虫入门到精通

    ### Python爬虫入门到精通知识点概览 #### 一、Python爬虫概述 - **定义与应用领域**:网络爬虫(Web Crawler),又称网页蜘蛛、网络机器人,是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。在数据...

    Python爬虫教学视频-最全的Python爬虫视频教程全集

    本Python爬虫教学视频,全集共51天课程,整套课程以Python语言为核心,通过各种经典案例的讲解,很好的演示了python爬虫如何抓取数据的全过程,非常值得Python爬虫工程师和想掌握python爬虫技术的同学借鉴学习。...

    Python爬虫入门.zip

    【Python爬虫入门】 在信息技术日新月异的今天,数据已经成为了一种重要的资源。Python作为一种简洁且功能强大的编程语言,因其丰富的库支持和易读性,成为了爬虫开发的首选工具。本资料包“Python爬虫入门.zip”...

    python爬虫:Python 爬虫知识大全

    python爬虫:Python 爬虫知识大全; python爬虫:Python 爬虫知识大全; python爬虫:Python 爬虫知识大全; python爬虫:Python 爬虫知识大全; python爬虫:Python 爬虫知识大全; python爬虫:Python 爬虫知识...

    Python爬虫入门教程:超级简单的Python爬虫教程

    **Python 爬虫入门教程概述** Python 爬虫是一种用于自动提取网页信息的程序,对于数据分析和信息收集有着重要的作用。这篇教程是为初学者设计的,旨在引导读者在30分钟内掌握基本的Python爬虫编写技巧。教程分为五...

    python 爬虫入门实例.zip

    爬虫python入门 Python爬虫,简而言之,就是使用Python编程语言来编写的网络爬虫程序。网络爬虫是一种自动化程序,能够在互联网上自动抓取并提取所需的信息。Python作为一种功能强大且易于学习的编程语言,特别适合...

    Python爬虫入门教程.docx

    Python爬虫入门教程.docx

    Python爬虫入门教程(超级简单)完整版PDF最新版本

    这是一篇详细介绍 Python 爬虫入门的教程,从实战出发,适合初学者。读者只需在阅读过程紧跟文章思路,理清相应的实现代码,30 分钟即可学会编写简单的 Python 爬虫。 这篇 Python 爬虫教程主要讲解以下 5 部分内容...

    Python 爬虫入门与实战

    这是一篇详细介绍 Python 爬虫入门的教程,从实战出发,适合初学者。读者只需在阅读过程紧跟文章思路,理清相应的实现代码,30 分钟即可学会编写简单的 Python 爬虫。 这篇 Python 爬虫教程主要讲解以下 5 部分内容...

    Python爬虫入门实例教程.docx

    Python爬虫入门实例教程.docx

Global site tag (gtag.js) - Google Analytics