RabbitMQ 教程 - 工作队列
工作队列
(使用 Pika Python 客户端)
先决条件
本教程假设 RabbitMQ 已安装并在 localhost
上的标准端口 (5672) 上运行。如果您使用不同的主机、端口或凭据,则需要调整连接设置。
在哪里获得帮助
如果您在学习本教程时遇到问题,可以通过 GitHub Discussions 或 RabbitMQ 社区 Discord 联系我们。
先决条件
与其他的 Python 教程一样,我们将使用 Pika RabbitMQ 客户端 1.0.0 版本。
本教程的重点
在第一个教程中,我们编写了程序来发送和接收来自命名队列的消息。在本教程中,我们将创建一个工作队列,用于在多个工作者之间分配耗时的任务。
工作队列(又名:任务队列)背后的主要思想是避免立即执行资源密集型任务,并避免等待其完成。相反,我们计划稍后完成该任务。我们将任务封装为消息并将其发送到队列。在后台运行的工作进程将弹出任务并最终执行该作业。当您运行多个工作进程时,任务将在它们之间共享。
此概念在 Web 应用程序中特别有用,因为在短暂的 HTTP 请求窗口期间无法处理复杂的任务。
在本教程的前一部分中,我们发送了一条包含“Hello World!”的消息。现在我们将发送代表复杂任务的字符串。我们没有像调整大小的图像或要渲染的 pdf 文件这样的真实世界任务,所以让我们通过假装我们很忙来伪造它 - 通过使用 time.sleep()
函数。我们将字符串中的点数作为其复杂性;每个点将代表一秒钟的“工作”。例如,由 Hello...
描述的虚假任务将花费三秒钟。
我们将稍微修改上一个示例中的 send.py 代码,以允许从命令行发送任意消息。此程序将任务调度到我们的工作队列,因此我们将其命名为 new_task.py
import sys
message = ' '.join(sys.argv[1:]) or "Hello World!"
channel.basic_publish(exchange='',
routing_key='hello',
body=message)
print(f" [x] Sent {message}")
我们旧的 receive.py 脚本也需要一些更改:它需要为消息正文中的每个点伪造一秒钟的工作。它将从队列中弹出消息并执行任务,因此我们将其称为 worker.py
import time
def callback(ch, method, properties, body):
print(f" [x] Received {body.decode()}")
time.sleep(body.count(b'.'))
print(" [x] Done")
轮询分发
使用任务队列的优势之一是能够轻松地并行处理工作。如果我们正在积累工作积压,我们可以添加更多的工作进程,从而轻松扩展。
首先,让我们尝试同时运行两个 worker.py
脚本。它们都将从队列中获取消息,但具体如何获取?让我们看看。
您需要打开三个控制台。两个将运行 worker.py
脚本。这些控制台将是我们的两个消费者 - C1 和 C2。
# shell 1
python worker.py
# => [*] Waiting for messages. To exit press CTRL+C
# shell 2
python worker.py
# => [*] Waiting for messages. To exit press CTRL+C
在第三个控制台中,我们将发布新任务。启动消费者后,您可以发布一些消息
# shell 3
python new_task.py First message.
python new_task.py Second message..
python new_task.py Third message...
python new_task.py Fourth message....
python new_task.py Fifth message.....
让我们看看传递给我们的工作进程的内容
# shell 1
python worker.py
# => [*] Waiting for messages. To exit press CTRL+C
# => [x] Received 'First message.'
# => [x] Received 'Third message...'
# => [x] Received 'Fifth message.....'
# shell 2
python worker.py
# => [*] Waiting for messages. To exit press CTRL+C
# => [x] Received 'Second message..'
# => [x] Received 'Fourth message....'
默认情况下,RabbitMQ 将按顺序将每条消息发送到下一个消费者。平均而言,每个消费者将获得相同数量的消息。这种分发消息的方式称为轮询。用三个或更多工作进程尝试一下。
消息确认
执行任务可能需要几秒钟,您可能想知道如果消费者开始一项长时间的任务并在完成之前终止会发生什么。使用我们当前的代码,一旦 RabbitMQ 将消息传递给消费者,它会立即将其标记为删除。在这种情况下,如果您终止工作进程,则刚刚处理的消息将丢失。已调度到此特定工作进程但尚未处理的消息也会丢失。
但是我们不想丢失任何任务。如果工作进程崩溃,我们希望将任务传递给另一个工作进程。
为了确保消息永远不会丢失,RabbitMQ 支持消息确认。确认 (acknowledgement) 由消费者发回,以告知 RabbitMQ 已收到并处理了特定消息,并且 RabbitMQ 可以自由删除它。
如果消费者崩溃(其通道关闭、连接关闭或 TCP 连接丢失)而未发送确认,RabbitMQ 将理解消息未被完全处理并将重新排队。如果同时有其他消费者在线,则会快速将其重新传递给另一个消费者。这样,即使工作进程偶尔崩溃,您也可以确保不会丢失任何消息。
消费者传递确认有一个超时时间(默认为 30 分钟)。这有助于检测从不确认传递的有缺陷(卡住)的消费者。您可以按照传递确认超时中所述增加此超时时间。
手动消息确认默认情况下处于启用状态。在之前的示例中,我们通过 auto_ack=True
标志显式地禁用了它们。现在是时候删除此标志,并在我们完成任务后从工作进程发送适当的确认。
def callback(ch, method, properties, body):
print(f" [x] Received {body.decode()}")
time.sleep(body.count(b'.') )
print(" [x] Done")
ch.basic_ack(delivery_tag = method.delivery_tag)
channel.basic_consume(queue='hello', on_message_callback=callback)
使用此代码,您可以确保即使您在使用 CTRL+C 终止正在处理消息的工作进程时,也不会丢失任何内容。工作进程终止后不久,所有未确认的消息都会被重新传递。
确认必须在接收到传递的同一通道上发送。尝试使用不同的通道进行确认将导致通道级协议异常。请参阅关于确认的文档指南以了解更多信息。
忘记确认
错过
basic_ack
是一个常见的错误。这是一个容易犯的错误,但后果很严重。当您的客户端退出时,消息将被重新传递(这可能看起来像随机重新传递),但 RabbitMQ 将消耗越来越多的内存,因为它将无法释放任何未确认的消息。为了调试这种错误,您可以使用
rabbitmqctl
打印messages_unacknowledged
字段sudo rabbitmqctl list_queues name messages_ready messages_unacknowledged
在 Windows 上,删除 sudo
rabbitmqctl.bat list_queues name messages_ready messages_unacknowledged
消息持久性
我们已经学习了如何确保即使消费者崩溃,任务也不会丢失。但是,如果 RabbitMQ 服务器停止,我们的任务仍然会丢失。
当 RabbitMQ 退出或崩溃时,它会忘记队列和消息,除非您告诉它不要这样做。要确保消息不会丢失,需要做两件事:我们需要将队列和消息都标记为持久性。
首先,我们需要确保队列在 RabbitMQ 节点重启后仍然存在。为了做到这一点,我们需要将其声明为持久
channel.queue_declare(queue='hello', durable=True)
虽然此命令本身是正确的,但在我们的设置中它不起作用。这是因为我们已经定义了一个名为 hello
的队列,它不是持久的。RabbitMQ 不允许您使用不同的参数重新定义现有队列,并且会向任何尝试执行此操作的程序返回错误。但是有一个快速的解决方法 - 让我们声明一个名称不同的队列,例如 task_queue
channel.queue_declare(queue='task_queue', durable=True)
此 queue_declare
更改需要应用于生产者和消费者代码。
那时,我们确信即使 RabbitMQ 重新启动,task_queue
队列也不会丢失。现在我们需要将我们的消息标记为持久性 - 通过提供 delivery_mode
属性,其值为 pika.DeliveryMode.Persistent
channel.basic_publish(exchange='',
routing_key="task_queue",
body=message,
properties=pika.BasicProperties(
delivery_mode = pika.DeliveryMode.Persistent
))
关于消息持久性的说明
将消息标记为持久性并不能完全保证消息不会丢失。尽管它告诉 RabbitMQ 将消息保存到磁盘,但在 RabbitMQ 接受消息但尚未保存消息时,仍然存在一个短暂的时间窗口。此外,RabbitMQ 不会对每条消息执行
fsync(2)
-- 它可能只是保存到缓存,而不是真正写入磁盘。持久性保证并不强,但对于我们简单的任务队列来说已经足够了。如果您需要更强的保证,那么您可以使用发布者确认。
公平分发
您可能已经注意到,分发仍然无法完全按照我们的意愿工作。例如,在有两个工作进程的情况下,当所有奇数消息都很重而偶数消息很轻时,一个工作进程将一直很忙,而另一个工作进程几乎不做任何工作。好吧,RabbitMQ 对此一无所知,仍然会均匀地分发消息。
发生这种情况是因为 RabbitMQ 只是在消息进入队列时分发消息。它不查看消费者的未确认消息数量。它只是盲目地将每第 n 条消息分发给第 n 个消费者。
为了克服这个问题,我们可以使用 Channel#basic_qos
通道方法,并将 prefetch_count=1
设置为 1。这使用 basic.qos
协议方法来告诉 RabbitMQ 一次不要给一个工作进程超过一条消息。或者,换句话说,在工作进程处理并确认上一条消息之前,不要向其分发新消息。相反,它会将其分发给下一个尚未繁忙的工作进程。
channel.basic_qos(prefetch_count=1)
关于队列大小的说明
如果所有工作进程都很忙,您的队列可能会填满。您需要密切关注这一点,并可能添加更多工作进程,或使用消息 TTL。
整合在一起
new_task.py
(源码)
#!/usr/bin/env python
import pika
import sys
connection = pika.BlockingConnection(
pika.ConnectionParameters(host='localhost'))
channel = connection.channel()
channel.queue_declare(queue='task_queue', durable=True)
message = ' '.join(sys.argv[1:]) or "Hello World!"
channel.basic_publish(
exchange='',
routing_key='task_queue',
body=message,
properties=pika.BasicProperties(
delivery_mode=pika.DeliveryMode.Persistent
))
print(f" [x] Sent {message}")
connection.close()
worker.py
(源码)
#!/usr/bin/env python
import pika
import time
connection = pika.BlockingConnection(
pika.ConnectionParameters(host='localhost'))
channel = connection.channel()
channel.queue_declare(queue='task_queue', durable=True)
print(' [*] Waiting for messages. To exit press CTRL+C')
def callback(ch, method, properties, body):
print(f" [x] Received {body.decode()}")
time.sleep(body.count(b'.'))
print(" [x] Done")
ch.basic_ack(delivery_tag=method.delivery_tag)
channel.basic_qos(prefetch_count=1)
channel.basic_consume(queue='task_queue', on_message_callback=callback)
channel.start_consuming()
使用消息确认和 prefetch_count
,您可以设置一个工作队列。持久性选项使任务即使在 RabbitMQ 重新启动后也能幸存下来。
现在我们可以继续学习教程 3,学习如何将同一条消息传递给多个消费者。