一、简介
Celery是一个python第三方模块,是一个功能完备即插即用的分布式异步任务队列框架。
celery通常用于实现异步任务或定时任务。
- 异步任务:将耗时操作任务提交给Celery去异步执行,比如发送短信/邮件、消息推送、音视频处理等等;
- 定时任务:定时执行某件事情,比如每天数据统计。
当项目需要大批量发送邮件、或者有大文件上传、批图图像处理等等一些比较耗时的操作,我们可将其异步执行,以解决项目程序在执行过程中因为耗时任务而形成阻塞、导致出现请求堆积过多的问题。
目前最新版本为: 5.5
项目:https://github.com/celery/celery/
文档:http://docs.jinkan.org/docs/celery/getting-started/index.html
(最新) https://docs.celeryproject.org/en/latest/
Celery特点
- 简单,易于使用和维护,有丰富的文档。
- 高效,支持多线程、多进程、协程模式运行,单个celery进程每分钟可以处理数百万个任务。
- 灵活,celery中几乎每个部分都可以自定义扩展。
celery的作用是:应用解耦,异步处理,流量削锋,消息通讯。
celery 通过消息(任务)进行通信,
celery 通常使用一个叫Broker(中间人/消息中间件/消息队列/任务队列)来协助clients(任务的发出者/客户端)和worker(任务的处理者/工作进程)进行通信.
clients 发出消息到任务队列中,broker将任务队列中的信息派发给worker来处理。
client —> 消息 –> Broker(消息队列) —–> 消息 —> worker(celery运行起来的工作进程)
Celery运行架构
Celery的运行架构由三部分组成:
- 任务消息队列(message broker)
- 任务执行单元(worker)
- 任务结果存储(task result store)。
一个celery系统可以包含很多的worker和broker。
Celery本身不提供消息队列功能,但是可以很方便地和第三方提供的消息中间件进行集成,包括Redis,RabbitMQ,RocketMQ等
二、安装
pip install -U celery -i https://pypi.tuna.tsinghua.edu.cn/simple
注意:
Celery不建议在windows系统下使用。
Celery在4.0版本以后不再支持windows系统,所以如果要在windows下使用只能安装4.0以前的版本,
而且即便是4.0之前的版本,在windows系统下也是不能单独使用的,需要安装gevent、geventlet或eventlet协程模块
三、基本使用
3.1 直接使用
使用celery第一件要做的事情是先创建一个Celery实例对象,我们一般叫做celery应用对象,或者叫一个app。
app应用对象是我们使用celery所有功能的入口,比如启动celery、创建任务,管理任务,执行任务等。
创建异步任务执行文件celery_task.py:
import celery
import time
backend='redis://127.0.0.1:6379/1' # redis的1号库作为 执行结果存储
broker='redis://127.0.0.1:6379/2' # redis的2号库作为 任务消息队列
# 创建一个Celery实例对象
cel=celery.Celery('test',backend=backend,broker=broker)
@cel.task
def send_email(name): # 发送邮件模拟函数
print("向%s发送邮件..."%name)
time.sleep(5)
print("向%s发送邮件完成"%name)
return "ok"
celery_task.py定义了celery启动所需配置,包括设置redis库作为任务消息队列与执行结果存储、创建Celery实例、注册任务。
该文件不能直接运行,必须通过celery命令去调用。
异步任务文件命令执行:
celery worker -A celery_task -l info
Celery启动的常见选项:
以下是 Celery 常见选项的完整列表:
-A 或 --app:指定 Celery 应用程序的模块名。例如,-A myapp 指定 myapp 模块作为 Celery 应用程序。
-b 或 --broker:指定消息代理的 URL。例如,-b amqp://guest:guest@localhost// 指定 RabbitMQ 作为消息代理。
-c 或 --concurrency:指定 Celery 工作进程的并发数。例如,-c 4 指定 4 个工作进程并发执行任务。
-f 或 --logfile:指定日志文件的路径。例如,-f /var/log/celery/worker.log 指定将日志写入 /var/log/celery/worker.log 文件。
-l 或 --loglevel:指定日志级别。例如,-l info 指定将信息级别的日志打印到控制台上。
-n 或 --hostname:指定 Celery 工作进程的主机名。例如,-n worker1@myhost 指定 Celery 工作进程的主机名为 worker1@myhost。
-E 用于启用事件流功能。启用事件流功能后,Celery 将能够在任务执行期间记录事件,并将这些事件发送到事件流中。这些事件可以是任务的状态变化、异常发生等。
-Q 或 --queues:指定要监听的队列名称。例如,-Q high-priority,low-priority 指定要监听名为 high-priority 和 low-priority 的队列。
-Ofair:指定公平调度策略。这个选项可以确保每个工作进程平均分配任务,从而避免某些工作进程繁忙而其他工作进程处于闲置状态的情况。
-Ofair 或 --fair:指定公平调度策略。这个选项可以确保每个工作进程平均分配任务,从而避免某些工作进程繁忙而其他工作进程处于闲置状态的情况。
-P 或 --pool:指定任务池。例如,-P gevent 指定使用 Gevent 任务池。
-Q 或 --queues:指定要监听的队列名称。例如,-Q high-priority,low-priority 指定要监听名为 high-priority 和 low-priority 的队列。
-Ofair 或 --fair:指定公平调度策略。这个选项可以确保每个工作进程平均分配任务,从而避免某些工作进程繁忙而其他工作进程处于闲置状态的情况。
-Ofast 或 --fast:指定快速调度策略。这个选项可以确保任务尽可能快地分配给可用的工作进程,而不管工作进程的负载情况。
-Ofair 或 --fair:指定公平调度策略。这个选项可以确保每个工作进程平均分配任务,从而避免某些工作进程繁忙而其他工作进程处于闲置状态的情况。
-Ofast 或 --fast:指定快速调度策略。这个选项可以确保任务尽可能快地分配给可用的工作进程,而不管工作进程的负载情况。
这些选项可以通过命令行传递给 Celery 工作进程,以控制其行为。可以使用 celery worker --help 命令查看所有可用选项的完整列表和说明。
运行之后的提示:
celery已经启动,接下来消费者即可创建任务了。
执行任务文件,produce_task.py:
from celery_task import send_email
result = send_email.delay("yuan")
print(result.id) # 每个任务都会有一个唯一的id值
result2 = send_email.delay("alex")
print(result2.id)
# 注意:上面执行了两个任务:分别给yuan与alex发送邮件
# 异步执行,两个任务同时执行,一共需要5秒钟
创建py文件:result.py,查看任务执行结果:
from celery.result import AsyncResult # 专门用来取执行结果的类
from celery_task import cel # 导入创建的celery实例
# 每个任务有一位的id值,利用该值可以取出执行的结果。
async_result=AsyncResult(id="c6ddd5b7-a662-4f0e-93d4-ab69ec2aea5d", app=cel)
if async_result.successful():
result = async_result.get()
print(result)
# result.forget() # 将结果删除
elif async_result.failed():
print('执行失败')
elif async_result.status == 'PENDING':
print('任务等待中被执行')
elif async_result.status == 'RETRY':
print('任务异常后正在重试')
elif async_result.status == 'STARTED':
print('任务已经开始被执行')
3.2 优化:解耦合
上面直接使用的例子中,实例化celery、创建任务都放到一起了,耦合性不好,实际开发中, 我们常常需要将代码进行拆分
celery.py:实例化celery,进行配置
from celery import Celery
cel = Celery('celery_demo',
broker='redis://127.0.0.1:6379/1',
backend='redis://127.0.0.1:6379/2',
# 包含以下两个任务文件,去相应的py文件中找任务,对多个任务做分类
include=['celery_tasks.task01',
'celery_tasks.task02'
])
# 时区
cel.conf.timezone = 'Asia/Shanghai'
# 是否使用UTC
cel.conf.enable_utc = False
task01.py:不同类型的任务单独存放。
#task01
import time
from celery_tasks.celery import cel
@cel.task
def send_email(res):
time.sleep(5)
return "完成向%s发送邮件任务"%res
task02.py:不同类型的任务单独存放。
#task02
import time
from celery_tasks.celery import cel
@cel.task
def send_msg(name):
time.sleep(5)
return "完成向%s发送短信任务"%name
开启work:
celery worker -A celery -l info -P eventlet # -P eventlet ---> 开协程
produce_task.py:任务的调用
from celery_tasks.task01 import send_email
from celery_tasks.task02 import send_msg
# 立即告知celery去执行test_celery任务,并传入一个参数
result = send_email.delay('yuan')
print(result.id)
result = send_msg.delay('yuan')
print(result.id)
结果查询check_result.py:
from celery.result import AsyncResult
from celery_tasks.celery import cel
async_result = AsyncResult(id="562834c6-e4be-46d2-908a-b102adbbf390", app=cel)
if async_result.successful():
result = async_result.get()
print(result)
# result.forget() # 将结果删除,执行完成,结果不会自动删除
# async.revoke(terminate=True) # 无论现在是什么时候,都要终止
# async.revoke(terminate=False) # 如果任务还没有开始执行呢,那么就可以终止。
elif async_result.failed():
print('执行失败')
elif async_result.status == 'PENDING':
print('任务等待中被执行')
elif async_result.status == 'RETRY':
print('任务异常后正在重试')
elif async_result.status == 'STARTED':
print('任务已经开始被执行')
3.3 定时任务
celery除了应用于执行异步任务,也常用于执行定时任务。
异步任务与定时任务,仅是调用方式的不同。
- 执行异步任务,使用
任务.delay()
来调用 - 执行定时任务,使用
任务.apply_async()
来调用
from celery_task import send_email
from datetime import datetime
from datetime import timedelta
# 方式一: 固定某个时间
v1 = datetime(2020, 3, 11, 16, 19, 00) # 创建一个时间2022年3月11日16时19分0秒
print(v1)
v2 = datetime.utcfromtimestamp(v1.timestamp()) # 将时间v1转换为utc时间
print(v2)
result = send_email.apply_async(args=["egon",], eta=v2) # 使用apply_async启动定时任务,eta参数为执行时间
print(result.id)
# 方式二:固定时间间隔
ctime = datetime.now()
# 默认用utc时间
utc_ctime = datetime.utcfromtimestamp(ctime.timestamp())
time_delay = timedelta(seconds=10)
task_time = utc_ctime + time_delay
# 使用apply_async并设定时间
result = send_email.apply_async(args=["egon"], eta=task_time)
print(result.id)
3.4 将定时任务写入配置
我们也可以将定时任务统一写入配置文件中,实现解耦合的效果。
3.2 的celery.py修改如下:
from datetime import timedelta
from celery import Celery
from celery.schedules import crontab
cel = Celery('tasks', broker='redis://127.0.0.1:6379/1', backend='redis://127.0.0.1:6379/2', include=[
'celery_tasks.task01',
'celery_tasks.task02',
])
cel.conf.timezone = 'Asia/Shanghai'
cel.conf.enable_utc = False
cel.conf.beat_schedule = { # 指定定时任务,字典中存放的就是一个个定时任务
# 定时任务的名称可以随意命名
'add-every-10-seconds': {
# 执行tasks1下的test_celery函数
'task': 'celery_tasks.task01.send_email',
# schedule有三种写法
# 'schedule': 1.0, # 第一种写法:每秒执行1次
# 'schedule': crontab(minute="*/1"), # 第二种写法:每分钟执行1次,*表示每分钟
'schedule': timedelta(seconds=6), # 第三种写法:时差的写法
# 传递参数
'args': ('张三',)
},
# 'add-every-12-seconds': {
# 'task': 'celery_tasks.task01.send_email',
# 每年4月11号,8点42分执行
# 'schedule': crontab(minute=42, hour=8, day_of_month=11, month_of_year=4),
# 'args': ('张三',)
# },
}
前面的定时任务是生产者生成的,生产者通过任务的apply_async方法,定时地往消息队列中添加任务;
如果定时任务是写入配置文件中的,celery是通过beat来专门管理定时任务的。
启动celery时,除了启动broker,还需要启动beat。
在 Celery 中,
beat
是一个独立的进程,用于周期性地调度任务。
# 启动 Beat 程序
celery beat -A 项目名 # Celery Beat进程会读取该项目的配置文件内容,周期性地将配置中到期需要执行的任务发送给任务队列
# 启动 worker 进程
celery -A 文件名 worker -l info
# 同时启动 worker 进程 和 beat 进程
celery -B -A 文件名 worker -l info # -B:指示 Celery 启动一个 beat 进程,用于周期性地调度任务。
在项目中使用
Celery在项目中使用有2种使用方式:
- 一种是作为一个单独项目,
- 一种就是集成到web项目框架中。
Celery作为一个单独项目运行
例如,mycelery代码目录直接放在项目根目录下即可,路径如下:
服务端项目根目录/
└── mycelery/
├── settings.py # 配置文件
├── __init__.py
├── main.py # 入口程序
└── sms/ # 异步任务目录,这里拿发送短信来举例,一个类型的任务就一个目录
└── tasks.py # 任务的文件,文件名必须是tasks.py!!!每一个任务就是一个被装饰的函数,写在任务文件中
main.py,代码:
from celery import Celery
# 实例化celery应用,参数一般为项目应用名
app = Celery("luffycity")
# 通过app实例对象加载配置文件
app.config_from_object("mycelery.settings")
# 注册任务, 自动搜索并加载任务
# 参数必须必须是一个列表,里面的每一个任务都是任务的路径名称
# app.autodiscover_tasks(["任务1","任务2",....])
app.autodiscover_tasks(["mycelery.sms","mycelery.email"])
# 启动Celery的终端命令# 强烈建议切换目录到项目的根目录,再启动celery!!celery -A mycelery.main worker --loglevel=info
配置文件settings.py:
# 任务队列的链接地址
broker_url = 'redis://127.0.0.1:6379/14'
# 结果队列的链接地址
result_backend = 'redis://127.0.0.1:6379/15'
关于配置信息的官方文档:https://docs.celeryproject.org/en/master/userguide/configuration.html
创建任务文件sms/tasks.py,任务文件名必须固定为”tasks.py”,并创建任务,代码:
from ..main import app
@app.task(name="send_sms1")
def send_sms1():
"""没有参数没有返回结果的异步任务"""
print('任务:send_sms1执行了...')
@app.task(name="send_sms2")
def send_sms2(mobile, code):
"""有参数没有返回结果的异步任务"""
print(f'任务:send_sms2执行了...mobile={mobile}, code={code}')
@app.task(name="send_sms3")
def send_sms3():
"""没有参数有返回结果的异步任务"""
print('任务:send_sms3执行了...')
return 100
@app.task(name="send_sms4")
def send_sms4(x,y):
"""有参数又有返回结果的异步任务"""
print('任务:send_sms4执行了...')
return x+y
在创建任务时,使用 @app.task()
去装饰任务时,可以使用name参数给任务取名称。
如果没有取任务名称,Celery默认会以路径去拼接该任务的名称。
接下来,我们运行celery。
# 先切换到项目的根目录
cd ~/Desktop/luffycity/luffycityapi
# 普通的运行方式 [默认多进程,卡终端,按CPU核数+1创建进程数]
# ps aux|grep celery Linux下查看进程的命令
celery -A mycelery.main worker --loglevel=info
# 启动多工作进程,以守护进程的模式运行 [一个工作进程就是4个子进程]
# 注意:pidfile和logfile必须以绝对路径来声明
celery multi start worker -A mycelery.main -E --pidfile="/home/moluo/Desktop/luffycity/luffycityapi/logs/worker1.pid" --logfile="/home/moluo/Desktop/luffycity/luffycityapi/logs/celery.log" -l info -n worker1
celery multi start worker -A mycelery.main -E --pidfile="/home/moluo/Desktop/luffycity/luffycityapi/logs/worker2.pid" --logfile="/home/moluo/Desktop/luffycity/luffycityapi/logs/celery.log" -l info -n worker2
# 关闭运行的工作进程
celery multi stop worker -A mycelery.main --pidfile="/home/moluo/Desktop/luffycity/luffycityapi/logs/worker1.pid" --logfile="/home/moluo/Desktop/luffycity/luffycityapi/logs/celery.log"
celery multi stop worker -A mycelery.main --pidfile="/home/moluo/Desktop/luffycity/luffycityapi/logs/worker2.pid" --logfile="/home/moluo/Desktop/luffycity/luffycityapi/logs/celery.log"
效果如下:
调用上面的异步任务,拿django的shell进行举例:
# 因为celery模块安装在了虚拟环境中,所以要确保进入虚拟环境
conda activate luffycity
cd ~/Desktop/luffycity/luffycityapi
python manage.py shell
# 调用celery执行异步任务
from mycelery.sms.tasks import send_sms1,send_sms2,send_sms3,send_sms4
mobile = "13312345656"
code = "666666"
# delay 表示马上按顺序来执行异步任务,在celrey的worker工作进程有空闲的就立刻执行
# 可以通过delay异步调用任务,可以没有参数
ret1 = send_sms1.delay()
# 可以通过delay传递异步任务的参数,可以按位置传递参数,也可以使用命名参数
# ret2 = send_sms.delay(mobile=mobile,code=code)
ret2 = send_sms2.delay(mobile,code)
# apply_async 让任务在后面指定时间后执行,时间单位:秒/s
# 任务名.apply_async(args=(参数1,参数2), countdown=定时时间)
ret4 = send_sms4.apply_async(kwargs={"x":10,"y":20},countdown=30)
# 根据返回结果,不管delay,还是apply_async的返回结果都一样的。
ret4.id # 返回一个UUID格式的任务唯一标志符,78fb827e-66f0-40fb-a81e-5faa4dbb3505
ret4.status # 查看当前任务的状态 SUCCESS表示成功! PENDING任务等待
ret4.get() # 获取任务执行的结果[如果任务函数中没有return,则没有结果,如果结果没有出现则会导致阻塞]
if ret4.status == "SUCCESS":
print(ret4.get())
接下来,我们让celery可以调度第三方框架的代码,这里以django作为第三模块进行举例。
在main.py主程序中对django进行导包引入,并设置django的配置文件进行django的初始化。
import os,django
from celery import Celery
# 初始化django,把celery和django进行组合,识别和加载django的配置文件
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'luffycityapi.settings.dev')
django.setup() # 启动django
# 初始化celery对象
app = Celery("luffycity")
# 通过app对象加载配置
app.config_from_object("mycelery.config")
# 自动注册任务
app.autodiscover_tasks(["mycelery.sms","mycelery.email"])
# 运行celery
# 终端下: celery -A mycelery.main worker -l info
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'luffycityapi.settings.dev')
其中,os.environ 是 Python 内置模块 os 中的一个字典,用于管理环境变量。
setdefault 是 os.environ 字典的一个方法,用于设置指定键的默认值。
DJANGO_SETTINGS_MODULE 是 Django 环境变量的名称,用于指定配置文件路径。
luffycityapi.settings.dev 是指定的配置文件路径,它将告诉 Django 在 luffycityapi 应用程序的 settings 包中查找名为 dev 的配置文件。
在需要使用django配置的任务中,直接加载配置,所以我们把注册的短信发送功能,整合成一个任务函数,mycelery.sms.tasks,代码:
from ..main import app
from ronglianyunapi import send_sms as send_sms_to_user # 导入一个发送短信的函数
@app.task(name="send_sms1")
def send_sms1():
"""没有任何参数,没有返回结果的异步任务"""
print('任务:send_sms1执行了...')
@app.task(name="send_sms2")
def send_sms2(mobile, code):
"""有参数,没有返回结果的异步任务"""
print(f'任务:send_sms2执行了...mobile={mobile}, code={code}')
@app.task(name="send_sms3")
def send_sms3():
"""没有任何参数,有返回结果的异步任务"""
print('任务:send_sms3执行了...')
return 100
@app.task(name="send_sms4")
def send_sms4(x,y):
"""有结果的异步任务"""
print('任务:send_sms4执行了...')
return x+y
@app.task(name="send_sms")
def send_sms(tid, mobile, datas):
"""发送短信"""
print("给{}发送短信".format(mobile))
return send_sms_to_user(tid, mobile, datas)
最终在django的视图里面,我们调用Celery来异步执行任务。
只需要完成2个步骤,分别是导入异步任务和调用异步任务。
users/views.py,代码:
import random
from django_redis import get_redis_connection
from django.conf import settings
# from ronglianyunapi import send_sms
from mycelery.sms.tasks import send_sms
class SMSAPIView(APIView):
"""
SMS短信接口视图
"""
def get(self, request, mobile):
"""发送短信验证码"""
redis = get_redis_connection("sms_code")
# 判断手机短信是否处于发送冷却中[60秒只能发送一条]
interval = redis.ttl(f"interval_{mobile}") # 通过ttl方法可以获取保存在redis中的变量的剩余有效期
if interval != -2:
return Response({"errmsg": f"短信发送过于频繁,请{interval}秒后再次点击获取!", "interval": interval},status=status.HTTP_400_BAD_REQUEST)
# 基于随机数生成短信验证码
# code = "%06d" % random.randint(0, 999999)
code = f"{random.randint(0, 999999):06d}"
# 获取短信有效期的时间
time = settings.RONGLIANYUN.get("sms_expire")
# 短信发送间隔时间
sms_interval = settings.RONGLIANYUN["sms_interval"]
# 调用第三方sdk发送短信
# send_sms(settings.RONGLIANYUN.get("reg_tid"), mobile, datas=(code, time // 60))
# 异步发送短信
send_sms.delay(settings.RONGLIANYUN.get("reg_tid"), mobile, datas=(code, time // 60))
# 记录code到redis中,并以time作为有效期
# 使用redis提供的管道对象pipeline来优化redis的写入操作[添加/修改/删除]
pipe = redis.pipeline()
pipe.multi() # 开启事务
pipe.setex(f"sms_{mobile}", time, code)
pipe.setex(f"interval_{mobile}", sms_interval, "_")
pipe.execute() # 提交事务,同时把暂存在pipeline的数据一次性提交给redis
return Response({"errmsg": "OK"}, status=status.HTTP_200_OK)
上面就是使用celery并执行异步任务的第一种方式,适合在一些无法直接集成celery到项目中的场景。
Celery作为第三方模块集成到项目中
这里还是拿django来举例,目录结构调整如下:
luffycityapi/ # 服务端项目根目录
└── luffycityapi/ # 主应用目录
├── apps/ # 子应用存储目录
├ └── users/ # django的子应用
├ └── tasks.py # [新增]分散在各个子应用下的异步任务模块
├── settings/ # [修改]django的配置文件存储目录[celery的配置信息填写在django配置中即可]
├── __init__.py # [修改]设置当前包目录下允许外界调用celery应用实例对象
└── celery.py # [新增]celery入口程序,相当于上一种用法的main.py
luffycityapi/celery.py,主应用目录下创建cerley入口程序,创建celery对象并加载配置和异步任务,代码:
import os
from celery import Celery
# 必须在实例化celery应用对象之前执行
os.environ.setdefault('DJANGO_SETTINGS_MODULE', 'luffycityapi.settings.dev')
# 实例化celery应用对象
app = Celery('luffycityapi')
# 指定任务的队列名称
app.conf.task_default_queue = 'Celery'
# 也可以把配置写在django的项目配置中
app.config_from_object('django.conf:settings', namespace='CELERY')
# 设置django中配置信息以 "CELERY_"开头为celery的配置信息
# 自动根据配置查找django的所有子应用下的tasks任务文件
app.autodiscover_tasks() # 不用再传入列表,celery会根据django配置文件中注册的app,去各个app的task.py中导入任务
settings/dev.py,django配置中新增celery相关配置信息,代码:
# Celery异步任务队列框架的配置项
# [注意:django的配置项必须大写,所以这里的所有配置项必须全部大写]
# 任务队列
CELERY_BROKER_URL = 'redis://:123456@127.0.0.1:6379/14'
# 结果队列
CELERY_RESULT_BACKEND = 'redis://:123456@127.0.0.1:6379/15'
# 时区,与django的时区同步
CELERY_TIMEZONE = TIME_ZONE
# 防止死锁
CELERY_FORCE_EXECV = True
# 设置并发的worker数量
CELERYD_CONCURRENCY = 200
# 设置失败允许重试,这个慎用!!!!!!
# 如果设置为True,必须在异步任务中指定失败重试的次数
# 否则,如果任务一直失败,会产生指数级别的失败记录
CELERY_ACKS_LATE = True
# 每个worker工作进程最多执行500个任务被销毁,可以防止内存泄漏,500是举例,根据自己的服务器的性能可以调整数值
CELERYD_MAX_TASKS_PER_CHILD = 500
# 单个任务的最大运行时间,超时会被杀死[慎用,有大文件操作、长时间上传、下载任务时,需要关闭这个选项,或者设置更长时间]
CELERYD_TIME_LIMIT = 10 * 60 # 10分钟
# 任务发出后,经过一段时间还未收到acknowledge, 就将任务重新交给其他worker执行
CELERY_DISABLE_RATE_LIMITS = True
# celery的任务结果内容格式
CELERY_ACCEPT_CONTENT = ['json', 'pickle']
# 之前定时任务(定时一次调用),使用了apply_async({}, countdown=30);
# 设置定时任务(定时多次调用)的调用列表,需要单独运行SCHEDULE命令才能让celery执行定时任务:celery -A mycelery.main beat,当然worker还是要启动的
# https://docs.celeryproject.org/en/stable/userguide/periodic-tasks.html
from celery.schedules import crontab
CELERY_BEAT_SCHEDULE = {
"user-add": { # 定时任务的注册标记符[必须唯一的]
"task": "add", # 定时任务的任务名称
"schedule": 10, # 如果不使用crontab,直接填写定时任务的调用时间,例如10,表示每隔10秒调用一次add任务
# "schedule": crontab(hour=7, minute=30, day_of_week=1),, # 定时任务的调用时间,每周一早上7点30分调用一次add任务
}
}
CELERY_DISABLE_RATE_LIMITS = True
参数一定要注意,如果设置为True,必须在异步任务中指定失败重试的次数,否则,如果任务一直失败,会产生指数级别的失败记录。
因为在celery中,如果任务执行失败,则此任务会回滚到消息队列中,而消息队列中原来的任务也还在。
这样一个任务失败后,在消息队列中就会变成2个,
继续执行这2个任务依旧失败,消息队列中就会存放4个任务….
如何指定任务的失败重试次数?
方式一:使用 retry()
装饰器指定失败重试次数
from celery import task
@task
@retry(max_retries=3)
def send_email(to, subject, body):
# 发送邮件的逻辑
在这个例子中,retry()
装饰器将 max_retries
参数设置为 3,表示在任务失败的情况下最多重试 3 次。如果任务失败,则 Celery 会自动将它重新添加到任务队列中,直到达到最大重试次数或任务成功完成为止。
方式二:使用任务选项指定失败重试次数
from myapp.tasks import send_email
send_email.apply_async(args=[to, subject, body], retry=True, max_retries=3)
在这个例子中,apply_async()
方法的 retry
参数设置为 True
,表示启用任务失败重试功能。同时,max_retries
参数设置为 3,表示在任务失败的情况下最多重试 3 次。
luffycityapi/__init__.py
,主应用下初始化,代码:
import pymysql
from .celery import app as celery_app
pymysql.install_as_MySQLdb()
__all__ = ['celery_app']
users/tasks.py,代码:
from celery import shared_task
from ronglianyunapi import send_sms as sms
# 记录日志:
import logging
logger = logging.getLogger("django")
@shared_task(name="send_sms")
def send_sms(tid, mobile, datas):
"""异步发送短信"""
try:
return sms(tid, mobile, datas)
except Exception as e:
logger.error(f"手机号:{mobile},发送短信失败错误: {e}")
django中的用户发送短信,就可以改成异步发送短信了。
users/views,视图中调用异步发送短信的任务,代码:
from .tasks import send_sms
send_sms.delay(settings.RONGLIANYUN.get("reg_tid"),mobile, datas=(code, time // 60))
users/views.py,异步发送信息的完整视图,代码:
import random
from django_redis import get_redis_connection
from django.conf import settings
# from ronglianyunapi import send_sms
# from mycelery.sms.tasks import send_sms
from .tasks import send_sms
"""
/users/sms/(?P<mobile>1[3-9]\d{9})
"""
class SMSAPIView(APIView):
"""
SMS短信接口视图
"""
def get(self, request, mobile):
"""发送短信验证码"""
redis = get_redis_connection("sms_code")
# 判断手机短信是否处于发送冷却中[60秒只能发送一条]
interval = redis.ttl(f"interval_{mobile}") # 通过ttl方法可以获取保存在redis中的变量的剩余有效期
if interval != -2:
return Response({"errmsg": f"短信发送过于频繁,请{interval}秒后再次点击获取!", "interval": interval},status=status.HTTP_400_BAD_REQUEST)
# 基于随机数生成短信验证码
# code = "%06d" % random.randint(0, 999999)
code = f"{random.randint(0, 999999):06d}"
# 获取短信有效期的时间
time = settings.RONGLIANYUN.get("sms_expire")
# 短信发送间隔时间
sms_interval = settings.RONGLIANYUN["sms_interval"]
# 调用第三方sdk发送短信
# send_sms(settings.RONGLIANYUN.get("reg_tid"), mobile, datas=(code, time // 60))
# 异步发送短信
send_sms.delay(settings.RONGLIANYUN.get("reg_tid"), mobile, datas=(code, time // 60))
# 记录code到redis中,并以time作为有效期
# 使用redis提供的管道对象pipeline来优化redis的写入操作[添加/修改/删除]
pipe = redis.pipeline()
pipe.multi() # 开启事务
pipe.setex(f"sms_{mobile}", time, code)
pipe.setex(f"interval_{mobile}", sms_interval, "_")
pipe.execute() # 提交事务,同时把暂存在pipeline的数据一次性提交给redis
return Response({"errmsg": "OK"}, status=status.HTTP_200_OK)
终端下先启动celery,在django项目根目录下启动。
cd ~/Desktop/luffycity/luffycityapi
# 1. 普通运行模式,关闭终端以后,celery就会停止运行
celery -A luffycityapi worker -l INFO
# 2. 启动多worker进程模式,以守护进程的方式运行,不需要在意终端。但是这种运行模型,一旦停止,需要手动启动。
celery multi start worker -A luffycityapi -E --pidfile="/home/moluo/Desktop/luffycity/luffycityapi/logs/worker1.pid" --logfile="/home/moluo/Desktop/luffycity/luffycityapi/logs/celery.log" -l info -n worker1
# 3. 启动多worker进程模式
celery multi stop worker -A luffycityapi --pidfile="/home/moluo/Desktop/luffycity/luffycityapi/logs/worker1.pid"
还是可以在django终端下调用celery的
$ python manage.py shell
>>> from users.tasks import send_sms1
>>> res = send_sms1.delay()
>>> res = send_sms1.apply_async(countdown=15)
>>> res.id
'893c31ab-e32f-44ee-a321-8b07e9483063'
>>> res.state
'SUCCESS'
>>> res.result
关于celery中异步任务发布的2个方法的参数如下:
异步任务名.delay(*arg, **kwargs)
异步任务名.apply_async((arg,), {'kwarg': value}, countdown=60, expires=120)
定时任务的调用器启动,可以在运行了worker以后,使用以下命令:
cd ~/Desktop/luffycity/luffycityapi
celery -A luffycityapi beat
beat调度器关闭了,则定时任务无法执行,如果worker工作进程关闭了,则celery关闭,保存在消息队列中的任务就会囤积在那里。
原文链接:http://www.itawp.com/513.html,转载请注明出处。