Celery(芹菜)是一个异步任务队列/基于分布式消息传递的作业队列。
Celery用于生产系统每天处理数以百万计的任务。
Celery是用Python编写的,但该协议可以在任何语言实现。它也可以与其他语言通过webhooks实现。
由于Celery 3.0系列对以前的系列进行了大量重构优化,现在开始使用就没必要研究旧版本了,所以此介绍以3.0.24的文档为基础。
Celery的工作结构
在使用Celery的时候要明白它的大致结构,Celery的结构非常简单,大致分为3个部分:
- worker部分负责任务的处理,即工作线程,在我的理解中工作线程就是你写的python代码,当然还包括python调用系统工具功能
- broker部分负责任务消息的分发以及任务结果的存储,这部分任务主要由中间数据存储系统完成,比如消息队列服务器RabbitMQ、redis、 Amazon SQS、MongoDB、IronMQ等或者关系型数据库,使用关系型数据库依赖sqlalchemy或者django的ORM
- Celery主类,进行任务最开始的指派与执行控制,他可以是单独的python脚本,也可以和其他程序结合,应用到django或者flask等 web框架里面以及你能想到的任何应用
Celery的安装
Celery只是一个python包,所以可以通过pip或者easy_install安装
pip install celery easy_install install celery
除此之外还需要安装broker的系统,我使用的是redis,除了安装redis以外还需要安装celery-with-redis pip install celery-with-redis 使用其他类型的broker请参见官方文档:
Celery的初步使用
启动celery之前先架设好broker服务,安装好redis后以默认方式启动就可以了。 连接方式为:redis://localhost:6379/0
接下来编写任务脚本tasks.py,这个脚本在worker部分和任务分发部分都需要用到:
from celery import Celery
celery = Celery('tasks', broker='redis://localhost:6379/0')
@celery.task
def add(x, y):
return x + y
执行命令启动worker进行:
#这个命令要在tasks.py文件目录运行,命令表示以worker模式启动一个名为tasks的APP
#worker的名称是test-worker1,一台服务器上可以启动多个worker,只要名称不同,
#启动好的worker会自动根据tasks.py的信息注册到broker服务中,等待分发任务。
celery -A tasks worker --loglevel=info --hostname=test-worker1
执行任务,使用delay()放,如下:
>>> from tasks import add
>>> add.delay(4, 4)
也可以使用apply_async()方法,把结果存储在类似broker的backend系统中,可以和broker在同一个服务中, 更改tasks.py中的实例化celery一行,加入backend参数: celery = Celery('tasks', broker='redis://localhost:6379/0', backend='redis://localhost:6379/0')
重新执行任务,使用apply_async把结果存储下来,在需要的时候调用get()进行获取,如下:
>>> from tasks import add
>>> result = add.apply_async(4, 4)
>>> result.get()
Celery配置
Celery有很多全局变量,不配置的情况下取默认值,当我们需要配置的时候可以把所有的参数写到一个py文件中然后在 任务文件中进行加载,也可以直接用一个类写到任务文件中,还可以直接对celery类的conf对象直接进行update操作:
方法1,直接加载py文件: celeryconfig.py:
BROKER_URL = 'amqp://'
CELERY_RESULT_BACKEND = 'amqp://'
CELERY_TASK_SERIALIZER = 'json'
CELERY_RESULT_SERIALIZER = 'json'
CELERY_TIMEZONE = 'Europe/Oslo'
CELERY_ENABLE_UTC = True
from celery import Celery
celery = Celery()
celery.config_from_object('celeryconfig')
方法2,直接对conf进行update: from celery import Celery
celery = Celery()
celery.conf.update(
CELERY_TASK_SERIALIZER='json',
CELERY_RESULT_SERIALIZER='json',
CELERY_TIMEZONE='Europe/Oslo',
CELERY_ENABLE_UTC=True,
)
or
celery.conf.CELERY_TASK_SERIALIZER = 'json'
方法3,直接加载类或对象: from celery import Celery
celery = Celery()
class Config:
CELERY_ENABLE_UTC = True
CELERY_TIMEZONE = 'Europe/London'
celery.config_from_object(Config)
Celery任务分发控制
在celery里面任务分发控制叫task routing即任务路由
celery的分发控制使用比较简单,但是高级功能比较复杂,我还不能完全理解,就介绍一下最基础的任务路由方法。
在worker进程启动的时候可以使用参数-Q指定当前worker所能接受的队列消息:
celery -A tasks.tasks worker --loglevel=info --hostname=testq-worker -Q 'testq'
然后在任务分发的过程中,调用apply_async或者delay方法中指定queue参数,当queue与worker的-Q相匹配时任务 就可以被分发到相应的worker进程中:
>>> from tasks import add
>>> result = add.apply_async(4, 4, queue='testq')
>>> result.get()
更高级的使用方法请大家研究官网的文档:
__ http://docs.celeryproject.org/en/latest/userguide/routing.html
Celery的管理
celery的管理有几种方式,比较直观的有一个叫flower的webui,可以提供任务查询,worker的生命管理以及路由管理,可以在界面上 进行实时的路由key添加(就是在worker启动时-Q参数指定的值)
使用方式为:
#安装
pip install flower
#启动
celery flower --port=5555 --broker=redis://localhost:6379/0
访问localhost的5555端口即可以使用
还有一种对任务进行实时监控的方式为celery本身提供的events的功能,启动方式为:
#启动一个字符界面下管理的工具,对任务进行方便的跟踪管理
celery events --broker=redis://localhost:6379/0
结束语
celery还有很多功能没来得及研究,我准备把celery应用于服务器管理中一些任务的执行,来代替linux的crontab和一些 手工操作,提升更强的灵活性以及更加直观
相关推荐
#### 一、Celery简介与功能概述 Celery 是一款强大的分布式任务队列系统,主要用于处理大量的后台任务,包括但不限于异步任务处理和定时任务调度。其核心设计旨在帮助开发者实现业务逻辑中的任务与主程序之间的解耦...
**Celery-0.1.12**是Celery的一个早期版本,这个版本可能包含了一些基础的功能和特性。随着项目的不断迭代,新版本可能会增加更多功能、优化性能和修复已知问题。对于旧版本的使用,通常是因为特定项目的需求或者...
#### 一、Celery库简介 Celery是一个开源的分布式任务队列系统,广泛应用于需要处理大规模消息和执行异步任务的Web应用中。其核心价值在于能够提高应用程序的响应速度和可扩展性,特别是在面对高并发请求和复杂业务...
标签“Python库”表明birdhousebuilder.recipe.celery是一个可以被其他Python项目引用和使用的模块,它可能提供了对Celery的扩展或特定场景下的便利功能。 关于这个压缩包内的文件,虽然列表只给出了...
1. **Celery简介** - Celery是一个异步任务队列,主要用Python编写,支持分布式和并发执行任务。它允许你将耗时的操作分发到后台执行,提高应用的响应速度和用户体验。 - Celery的核心概念包括任务、工作流、消息...
##### 1.1 Celery简介 Celery 是一个高级的分布式任务队列,它支持多种消息传递机制(例如 RabbitMQ 和 Redis),并且能够很好地处理大量分布式任务。Celery 可以用于异步执行任务,从而提高系统的整体性能和响应...
**Celery简介** Celery是一个基于分布式消息传递的异步任务队列。它专注于实时操作,但也支持调度。Celery的设计目标是提供一个灵活的解决方案,允许开发者在不同的消息中间件上运行任务,例如RabbitMQ、Redis或...
1 Celery简介 Celery是异步任务队列,可以独立于主进程运行,在主进程退出后,也不影响队列中的任务执行。 任务执行异常退出,重新启动后,会继续执行队列中的其他任务,同时可以缓存停止期间接收的工作任务,这个...
## 项目简介 本项目是一个基于FastAPI和Celery框架构建的标签管理系统,旨在帮助用户进行数据标签任务。系统支持用户选择标签模型和规则,并通过API接口返回抽样结果以检查标签情况。主要功能包括创建标签任务、...
简单芹菜 该存储库包含发布的Celery介绍系列的所有代码。 芹菜中的异步处理 展示耗时操作的普通实现。 -此示例实现main.py使用芹菜在asycnhronous方式以上。... 此示例使用Celery的crontab功能实现了生日通知系统。
本项目替换原项目框架django1.8为最新版的django2.2.5,该项目包含了实际开发中的电商项目中大部分的功能开发和知识点实践, 是一个非常不错的django学习项目,同时也记录在替换框架中遇到的坑,所遇到的django1.x和...
项目简介: 本项目是一款集成了Django框架、Ansible工具和Celery异步任务队列的Web平台,简称AnsibleUI。它旨在为用户提供一个便捷、高效的界面,用以批量处理和自动化任务管理。 技术栈: - 主要编程语言:Python ...
本项目由前后台组成,前台实现了基本的论坛操作(登录,注册,轮播图,各个板块下的帖子显示,用户信息查看和修改,发帖,点赞,评论等功能),后台是CMS管理系统 主要实现了管理人员的权限分配和限制,个人信息查看...
项目简介: 100%容器化 ,一键打包项目 RESTful 设计风格,前后端分离 基于 Echarts.js,支持 2D 和 3D 及动态可视化 基于 Celery,异步创建计算任务 基于 PyTorch,支持创建深度学习训练,并可实时画出训练过程...
本项目由前后台组成,前台实现了基本的论坛操作(登录,注册,轮播图,各个板块下的帖子显示,用户信息查看和修改,发帖,点赞,评论等功能),后台是CMS管理系统 主要实现了管理人员的权限分配和限制,个人信息查看...
简介 本项目替换原项目框架django1.8为最新版的django2.2.5(已修复为2.2.10),该项目包含了实际开发中的电商项目中大部分的功能开发和知识点实践, 是一个非常不错的django学习项目,同时也记录在替换框架中遇到的...
Tornado, Celery, Requests项目简介本项目使用的编程语言是python3,数据库用的是MySQL, 主要用到的库是celery和requests,并实现了定时任务,出错重试,日志记录,自动更改Cookies等的功能,使用ECharts + ...
## 项目简介 YW系统是一个基于Django框架构建的Web应用,主要用于管理和处理与业务相关的数据。项目包含了模型、视图、序列化器、URL配置、设置、WSGI配置和Celery配置等组件,提供了完整的工具和库来支持Web应用的...
#### 一、Flask 框架简介与应用场景 **Flask** 是一个用 Python 编写的轻量级 Web 应用框架。它被设计为简单易用,同时提供了高度灵活性。Flask 的核心特性包括请求分发、视图函数、模板渲染等。此外,Flask 还支持...