Python Crawler(6)Deployment on Docker on EC2
The start.sh will be similar to the rasbperryPi one.
The file conf/scrapyd.conf will be the same
The Makefile, I just change the name of the docker image
IMAGE=sillycat/public
TAG=centos7-scrapyd
NAME=centos7-scrapyd
docker-context:
build: docker-context
docker build -t $(IMAGE):$(TAG) .
run:
docker run -d -p 6800:6800 --name $(NAME) $(IMAGE):$(TAG)
debug:
docker run -ti -p 6800:6800 --name $(NAME) $(IMAGE):$(TAG) /bin/bash
clean:
docker stop ${NAME}
docker rm ${NAME}
logs:
docker logs ${NAME}
publish:
docker push ${IMAGE}:${TAG}
fetch:
docker pull ${IMAGE}:${TAG}
Dockerfile will be the major difference parts.
#Prepre the OS
FROM centos:7
MAINTAINER Carl Luo <luohuazju@gmail.com>
#install the softwarea
RUN yum -y update
RUN yum install -y gcc
RUN yum install -y python-devel
#install pip
RUN mkdir -p /install/
WORKDIR /install/
RUN curl "https://bootstrap.pypa.io/get-pip.py" -o "get-pip.py"
RUN python get-pip.py
#install scrapyd
RUN pip install scrapyd
#copy the config
RUN mkdir -p /tool/scrapyd/
ADD conf/scrapyd.conf /tool/scrapyd/
#set up the app
EXPOSE 6800
RUN mkdir -p /app/
ADD start.sh /app/
WORKDIR /app/
CMD[ "./start.sh" ]
References:
http://sillycat.iteye.com/blog/2394767
分享到:
相关推荐
本教程"PythonCrawler-master"旨在教授如何利用Python进行网页数据的抓取和处理。教程涵盖了网络爬虫的基础知识,包括HTML解析、HTTP请求、数据存储等核心内容,同时也涉及了一些高级技巧,如模拟登录、反爬虫策略和...
Docker Scrapyd Scrapy Crawler - Mailan-Spider 应用程序 这个存储库是一个可以“Dockerized”的蜘蛛 Python 应用程序。 它附带了在 Mac OS X 中“Dockerizing”Python 应用程序的分步指南。您将了解 Scrapy、...
在这个项目"scaleable-crawler-with-docker-cluster"中,我们主要关注的是如何构建一个能够高效、可扩展且在Docker集群上运行的网络爬虫。这个解决方案利用了Python作为编程语言,Docker作为容器化技术,RabbitMQ...
python库。 资源全名:spidy_web_crawler-1.6.0-py3-none-any.whl
**PythonCrawler-Scrapy-Mysql-File-Template 框架详解** 本文将深入探讨一个基于Python的开源爬虫框架——Scrapy,以及如何利用它来构建爬虫项目,将抓取的数据存储到MySQL数据库或文件中。Scrapy是一个强大的、...
Python-Crawler-master是一个关于Python爬虫的项目,主要利用Python的多线程技术来实现对电影天堂网站资源的高效抓取。在这个项目中,开发者旨在提供一个实用且高效的爬虫框架,帮助用户获取到电影天堂网站上的丰富...
Python website crawler.
Python爬虫示例之distribute_crawler-master.Python爬虫示例之distribute_crawler-master.Python爬虫示例之distribute_crawler-master.Python爬虫示例之distribute_crawler-master.Python爬虫示例之distribute_...
( )\ ) ) ) ( ( (()/( ( ( /( ( /( )\ ( ) ( ( )\ ( ( /(_)))\ ) )\()))\()) ( ( (((_) )( ( /( )\))( ((_) ))\ )( (_)) (()/( (_))/((_)\ )\ )\ ) )\___ (()\ )(_))((_)()\ _ /((_)(()\
简单爬虫操作,直达博客——复工复产,利用Python爬虫爬取火车票信息,利用Python 爬虫获取火车票信息
Python爬虫学习路径图_Learn-Python-Crawler
学习 Python 爬虫需要掌握以下几个方面的知识:首先,需要了解 Python 基础知识,包括变量、数据类型、控制结构、函数、模块等。 Python 是一种易于学习的语言,对于初学者来说,学习 Python 基础知识并不困难。其次...
6. `requirements.txt`:列出项目依赖的Python库和版本。 7. `logs`:日志文件夹,记录爬虫运行时的错误和信息。 8. `test`:测试目录,包含单元测试和集成测试代码。 综上所述,"crawlerforSinaweibo" 是一个使用...
在这个“python_crawler”项目中,我们很可能看到了一系列用于学习和实践Python爬虫技术的代码和资源。下面,我们将深入探讨Python爬虫的一些核心知识点。 1. **基础概念**:Python爬虫,也称为网络爬虫或网页抓取...
Here is a basic Python web crawler code that uses the requests and beautifulsoup4 libraries: This code sends an HTTP request to the specified URL, then uses BeautifulSoup to parse the ...
python-crawler-master很好的学习资源
Browsertrix搜寻器Browsertrix Crawler是一个简化的基于浏览器的高保真爬网系统,旨在在单个Docker容器中运行单个爬网。 它是对原始进行更精简替换的一部分而设计的。 对于需要单个爬网并且需要管理多个容器的情况,...
这个"python-crawler-master.zip"压缩包显然包含了一个完整的Python爬虫项目,适合初学者学习和实践。让我们详细了解一下Python爬虫的基本概念、重要性以及如何进行开发。 Python爬虫是一种自动化程序,用于遍历...
【标题】:“crawlerforSinaweibo_爬虫python_webcrawler_python_weibo_python爬虫_源码” 这个标题明确指出这是一个关于Python爬虫的项目,特别针对的是新浪微博(Sina Weibo)的数据抓取。"Webcrawler"是网络爬虫...
Fun's Python crawler and Python data analysis small projects (some interesting Python crawlers and data analysis projects)interested-python interesting Python crawler and data analysis small projects...