import requests from requests.exceptions import RequestException import re import json from multiprocessing import Pool def page_one_html(url): try: response = requests.get(url); if response.status_code == 200: return response.text else: return None except RequestException: return None def parse_page_html(content): pattern = re.compile('<dd>.*?board-index.*?>(\d+)</i>.*?title="(.*?)".*?data-src="(.*?)".*?' +'star">(.*?)</p>.*?releasetime">(.*?)</p>.*?integer">(.*?)</i>.*?fraction">(.*?)</i>' +'.*?</dd>',re.S) items = re.findall(pattern,content) #print(items) for item in items: yield{ "index":item[0], "title": item[1], "image":item[2], "actor":item[3].strip()[3:], "createTime":item[4].strip()[4:], "score":str(item[5])+str(item[6]) } def write_text(item): with open("result.txt","a",encoding="utf-8") as f: f.write(json.dumps(item,ensure_ascii=False) + "\n") f.close() def main(offset): url = "http://maoyan.com/board/4?offset="+str(offset) html = page_one_html(url) #print(html) for item in parse_page_html(html): write_text(item) if __name__=="__main__": pool = Pool() pool.map(main,[i*10 for i in range(10)])
from requests.exceptions import RequestException 异常处理很重要
import re
import json
from multiprocessing import Pool 线程池下线搜搜的
相关推荐
在本项目中,我们主要探讨了如何爬取猫眼电影网站的排行榜前100名的数据,这是一个典型的网络爬虫实战案例。在这个过程中,我们没有使用像Scrapy这样的高级爬虫框架,而是选择了更为基础的方法,即利用requests库...
requests+正则表达式爬取猫眼电影TOP100 代码.txt
利用python3的requests请求库和re正则表达式模块,爬取猫眼电影排行,并存储到MySQL数据库中。
Requests,正则表达式爬取猫眼电影TOP100,并将结果写入TXT文档中
总结,通过Python的requests库和正则表达式,我们可以实现对猫眼电影Top100的抓取。然而,对于更复杂的情况,建议使用如BeautifulSoup、Scrapy等专门的Web爬虫框架。在进行网络爬虫时,一定要遵守道德规范,尊重网站...
用正则表达式爬取猫眼电影top100,具体内容如下 #!/usr/bin/python # -*- coding: utf-8 -*- import json # 快速导入此模块:鼠标先点到要导入的函数处,再Alt + Enter进行选择 from multiprocessing.pool import...
项目功能:使用Python爬取Top100电影榜单数据并保存csv文件,需要的小伙伴们下载源码做参考即可。 开发工具 Python版本: 3.6 相关模块: requests模块、time模块、parsel模块、csv模块。 操作: 浏览器中打开...
爬取猫眼top100电影 简述: 利用requests和简单的正则表达式进行数据的爬取,并利用multiprocessing.Pool线程池加快速度 爬取头条街拍图片 简述: 利用requests的session特性进行爬取,同时添加headers防止网站反爬...
提取猫眼电影Top100电影名称、时间、评分、图片等信息,提取的结构会以文件形式保存下来 使用到 requests页面请求 pyquery源码解析 file文件读写 json数据格式化
描述中的"python爬虫应用,爬取猫眼电影TOP100"说明了项目的一部分内容是爬取猫眼电影网站的热门电影列表。这涉及到HTML解析、请求库如requests的使用以及数据提取库如BeautifulSoup或PyQuery的掌握。通过爬取猫眼...
在这个项目中,我们针对猫眼电影网站(Maoyan)的TOP100电影数据进行了爬取。这可能涉及到使用Python的requests库来发送HTTP请求获取网页内容,然后使用BeautifulSoup或Scrapy等解析库来解析HTML,提取出电影的名称...
该压缩包文件包含了一个关于电影信息爬取的项目,通过爬虫技术实现了对猫眼电影100榜的抓取,以及对电影评论、评分、演员信息和下载链接的检索。这个工具还配备了一个简单的用户界面,使得用户可以通过eastgui进行...
【猫眼-TOP.zip】是一个基于Python实现的爬虫项目,主要目的是抓取并分析猫眼电影平台上的数据。这个项目包含以下关键知识点: 1. **Python基础**:Python是这个项目的基础语言,它以其简洁易读的语法和丰富的第三...
在上述示例中,使用正则表达式爬取猫眼电影Top100榜单中电影封面图的方法是: 1. 查看页面元素找到包含图片路径的代码段落。 2. 分析图片在web上的唯一属性。 3. 观察多个页面的URL变化,以便处理翻页情况。 4. 编写...
在实际应用中,可以结合以上知识点编写爬虫,例如爬取百度贴吧的数据或者猫眼电影的top100列表,通过请求模块获取HTML,然后利用正则表达式解析所需信息,最终存储到本地或数据库。在编写爬虫时,还需要考虑反爬机制...