`

(转载)python爬虫入门

 
阅读更多

转载地址: http://blog.csdn.net/bo_wen_/article/details/50868339

 

步骤1: 安装2个包

            requests和beautifulsoup

 

步骤2:导入代码,并执行

    

import requests
import csv
import random
import time
import socket
import http.client
# import urllib.request
from bs4 import BeautifulSoup

def get_content(url , data = None):
    header={
        'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
        'Accept-Encoding': 'gzip, deflate, sdch',
        'Accept-Language': 'zh-CN,zh;q=0.8',
        'Connection': 'keep-alive',
        'User-Agent': 'Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/43.0.235'
}
    timeout = random.choice(range(80, 180))
    while True:
        try:
            rep = requests.get(url,headers = header,timeout = timeout)
            rep.encoding = 'utf-8'
# req = urllib.request.Request(url, data, header)
            # response = urllib.request.urlopen(req, timeout=timeout)
            # html1 = response.read().decode('UTF-8', errors='ignore')
            # response.close()
break
# except urllib.request.HTTPError as e:
        #         print( '1:', e)
        #         time.sleep(random.choice(range(5, 10)))
        #
        # except urllib.request.URLError as e:
        #     print( '2:', e)
        #     time.sleep(random.choice(range(5, 10)))
except socket.timeout as e:
            print( '3:', e)
            time.sleep(random.choice(range(8,15)))

        except socket.error as e:
            print( '4:', e)
            time.sleep(random.choice(range(20, 60)))

        except http.client.BadStatusLine as e:
            print( '5:', e)
            time.sleep(random.choice(range(30, 80)))

        except http.client.IncompleteRead as e:
            print( '6:', e)
            time.sleep(random.choice(range(5, 15)))

    return rep.text
    # return html_text
def get_data(html_text):
    final = []
    bs = BeautifulSoup(html_text, "html.parser")  # 创建BeautifulSoup对象
body = bs.body # 获取body部分
data = body.find('div', {'id': '7d'})  # 找到id为7d的div
ul = data.find('ul')  # 获取ul部分
li = ul.find_all('li')  # 获取所有的li
for day in li: # 对每个li标签中的内容进行遍历
temp = []
        date = day.find('h1').string  # 找到日期
temp.append(date)  # 添加到temp中
inf = day.find_all('p')  # 找到li中的所有p标签
temp.append(inf[0].string,)  # 第一个p标签中的内容(天气状况)加到temp中
if inf[1].find('span') is None:
            temperature_highest = None # 天气预报可能没有当天的最高气温(到了傍晚,就是这样),需要加个判断语句,来输出最低气温
else:
            temperature_highest = inf[1].find('span').string  # 找到最高温
temperature_highest = temperature_highest.replace('℃', '')  # 到了晚上网站会变,最高温度后面也有个℃
temperature_lowest = inf[1].find('i').string  # 找到最低温
temperature_lowest = temperature_lowest.replace('℃', '')  # 最低温度后面有个℃,去掉这个符号
temp.append(temperature_highest)   # 将最高温添加到temp中
temp.append(temperature_lowest)   #将最低温添加到temp中
final.append(temp)   #将temp加到final中
return final

def write_data(data, name):
    file_name = name
    with open(file_name, 'a', errors='ignore', newline='') as f:
            f_csv = csv.writer(f)
            f_csv.writerows(data)

if __name__ == '__main__':
                url = 'http://www.weather.com.cn/weather/101190401.shtml'
html = get_content(url)
                result = get_data(html)
                write_data(result, 'weather.csv')

 

步骤3: 结果如下:

23日(今天) 多云 19 12
24日(明天) 多云 20 12
25日(后天) 多云 21 14
26日(周四) 多云 21 14
27日(周五) 多云 22 14
28日(周六) 多云 21 15
29日(周日) 多云转晴 21 11

 

分享到:
评论

相关推荐

    Python爬虫入门教程:超级简单的Python爬虫教程.pdf

    ### Python爬虫入门教程知识点详解 #### 一、理解网页结构 在进行Python爬虫开发之前,首先要了解网页的基本构成。网页通常包含三个主要部分:HTML(超文本标记语言)、CSS(层叠样式表)以及JavaScript(一种常用...

    python爬虫从入门到精通(模块)

    这份文档旨在帮助想要学习Python爬虫的初学者,从入门到精通逐步提升自己的技能。以下是我们将要涵盖的主题: ## 入门篇 1. Python爬虫简介 2. Requests库的使用 3. Beautiful Soup库的使用 4. 爬虫实战:爬取百度...

    python 爬虫入门学习资料

    python 爬虫入门学习资料/python 爬虫入门学习资料/python 爬虫入门学习资料/python 爬虫入门学习资料 网盘资源

    Python爬虫入门:如何爬取招聘网站并进行分析

    Python爬虫入门知识点详细解析: 一、Python爬虫概念与应用 网络爬虫是按照一定的规则,自动抓取互联网信息的程序或脚本。它可以模拟用户浏览网页的行为,对网页内容进行提取、保存。Python爬虫由于其代码简洁、库...

    Python爬虫入门到实战 (二花) PDF版

    总的来说,Python爬虫的入门到实战是一个逐步深入的过程,需要从基础语法开始,逐步学习网络请求、网页解析、数据提取等技能,并在实际的项目中不断实践和提高。通过学习和应用Python爬虫技术,可以有效地从互联网上...

    Python爬虫入门教程:超级简单的Python爬虫教程 python

    Python爬虫入门教程:超级简单的Python爬虫教程

    Python爬虫入门到精通

    ### Python爬虫入门到精通知识点概览 #### 一、Python爬虫概述 - **定义与应用领域**:网络爬虫(Web Crawler),又称网页蜘蛛、网络机器人,是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。在数据...

    Python爬虫入门教程 90-100 凌晨5点的CSDN自动签到器,用Python爬虫干点闲事.zip

    本教程将引导初学者从入门到进阶,了解如何利用Python编写一个简单的CSDN(China Software Developer Network)自动签到器。CSDN是中文程序员的热门社区,通过这个项目,你可以学习到如何运用Python爬虫技术来实现...

    Python爬虫教学视频-最全的Python爬虫视频教程全集

    本Python爬虫教学视频,全集共51天课程,整套课程以Python语言为核心,通过各种经典案例的讲解,很好的演示了python爬虫如何抓取数据的全过程,非常值得Python爬虫工程师和想掌握python爬虫技术的同学借鉴学习。...

    Python爬虫入门教程

    Python爬虫入门教程 Python爬虫是一种自动获取网页内容的程序,为搜索引擎提供了重要的数据支撑。爬虫的全称为网络爬虫,简称爬虫,别名有网络机器人、网络蜘蛛等等。爬虫的分类有传统爬虫和聚焦爬虫。传统爬虫从一...

    python爬虫:Python 爬虫知识大全

    python爬虫:Python 爬虫知识大全; python爬虫:Python 爬虫知识大全; python爬虫:Python 爬虫知识大全; python爬虫:Python 爬虫知识大全; python爬虫:Python 爬虫知识大全; python爬虫:Python 爬虫知识...

    Python爬虫入门教程:超级简单的Python爬虫教程

    **Python 爬虫入门教程概述** Python 爬虫是一种用于自动提取网页信息的程序,对于数据分析和信息收集有着重要的作用。这篇教程是为初学者设计的,旨在引导读者在30分钟内掌握基本的Python爬虫编写技巧。教程分为五...

    Python爬虫入门教程.docx

    Python爬虫入门教程.docx

    Python爬虫入门到进阶:解锁网络数据的钥匙-Markdown材料.zip

    Python爬虫入门到进阶:解锁网络数据的钥匙 在数字化时代,数据已成为最宝贵的资源之一。然而,如何获取这些数据,尤其是隐藏在网页背后的信息,成为了许多开发者、数据分析师和研究人员面临的挑战。现在,我们为你...

    Python 爬虫入门与实战

    这是一篇详细介绍 Python 爬虫入门的教程,从实战出发,适合初学者。读者只需在阅读过程紧跟文章思路,理清相应的实现代码,30 分钟即可学会编写简单的 Python 爬虫。 这篇 Python 爬虫教程主要讲解以下 5 部分内容...

    Python爬虫框架Scrapy教程 完整版PDF

    《Python爬虫框架Scrapy教程》主要是针对学习python爬虫的课程,又基础的python爬虫框架scrapy开始,一步步学习到最后完整的爬虫完成,现在python爬虫应用的非常广泛,本文档详细介绍了scrapy爬虫和其他爬虫技术的...

    【python爬虫】python爬虫基础知识及简单实践

    【python爬虫】python爬虫基础知识及简单实践【python爬虫】python爬虫基础知识及简单实践【python爬虫】python爬虫基础知识及简单实践【python爬虫】python爬虫基础知识及简单实践【python爬虫】python爬虫基础知识...

    python爬虫课件+代码.zip

    Python爬虫技术是一种用于自动化网络数据获取的编程技术,它在大数据分析、网站维护、市场研究等领域具有广泛应用。本课程由“路飞学城樵夫”老师指导,通过实际操作帮助学习者掌握Python爬虫的基本原理和实战技巧。...

    python爬虫可以做什么?python爬虫入门教程有哪些?.docx

    - **《Python爬虫入门》系列教程**:适合完全没有编程基础的新手。主要内容包括: - **综述**:介绍爬虫的基本概念及其应用场景。 - **爬虫基础了解**:讲解网络请求的基本知识,如HTTP协议、URL结构等。 - **...

Global site tag (gtag.js) - Google Analytics