rabbitmq celery 不释放记忆

zvms9eto  于 2023-01-02  发布在  RabbitMQ
关注(0)|答案(6)|浏览(276)

看起来celery 在任务完成后并不释放内存。每完成一个任务,就会有5 m-10 m的内存泄漏。所以在成千上万个任务的情况下,很快就会耗尽所有内存。

BROKER_URL = 'amqp://user@localhost:5672/vhost'
# CELERY_RESULT_BACKEND = 'amqp://user@localhost:5672/vhost'

CELERY_IMPORTS = (
    'tasks.tasks',
)

CELERY_IGNORE_RESULT = True
CELERY_DISABLE_RATE_LIMITS = True
# CELERY_ACKS_LATE = True
CELERY_TASK_RESULT_EXPIRES = 3600
# maximum time for a task to execute
CELERYD_TASK_TIME_LIMIT = 600
CELERY_DEFAULT_ROUTING_KEY = "default"
CELERY_DEFAULT_QUEUE = 'default'
CELERY_DEFAULT_EXCHANGE = "default"
CELERY_DEFAULT_EXCHANGE_TYPE = "direct"
# CELERYD_MAX_TASKS_PER_CHILD = 50
CELERY_DISABLE_RATE_LIMITS = True
CELERYD_CONCURRENCY = 2

可能与问题相同,但没有答案:RabbitMQ/Celery/Django Memory Leak?
我没有使用django,我的软件包是:

Chameleon==2.11
Fabric==1.6.0
Mako==0.8.0
MarkupSafe==0.15
MySQL-python==1.2.4
Paste==1.7.5.1
PasteDeploy==1.5.0
SQLAlchemy==0.8.1
WebOb==1.2.3
altgraph==0.10.2
amqp==1.0.11
anyjson==0.3.3
argparse==1.2.1
billiard==2.7.3.28
biplist==0.5
celery==3.0.19
chaussette==0.9
distribute==0.6.34
flower==0.5.1
gevent==0.13.8
greenlet==0.4.1
kombu==2.5.10
macholib==1.5.1
objgraph==1.7.2
paramiko==1.10.1
pycrypto==2.6
pyes==0.20.0
pyramid==1.4.1
python-dateutil==2.1
redis==2.7.6
repoze.lru==0.6
requests==1.2.3
six==1.3.0
tornado==3.1
translationstring==1.1
urllib3==1.6
venusian==1.0a8
wsgiref==0.1.2
zope.deprecation==4.0.2
zope.interface==4.0.5

我刚刚添加了一个测试任务,例如,test_string是一个很大的字符串,它仍然有内存泄漏:

@celery.task(ignore_result=True)
def process_crash_xml(test_string, client_ip, request_timestamp):
    logger.info("%s %s" % (client_ip, request_timestamp))
    test = [test_string] * 5
lkaoscv7

lkaoscv71#

正是这个配置选项使我的工作线程不释放内存。

CELERYD_TASK_TIME_LIMIT = 600

参考:https://github.com/celery/celery/issues/1427

9njqaruj

9njqaruj2#

有两种设置可以帮助您缓解celery 工人不断增长的内存消耗:

  • 每个子节点的最大任务数设置(v2.0+):

使用此选项,您可以配置工作进程在被新进程替换之前可以执行的最大任务数。如果您无法控制内存泄漏,例如来自封闭源代码C扩展的内存泄漏,则此选项非常有用。

  • 每个子设置的最大内存(v4.0+):

使用此选项,您可以配置工作进程在被新进程替换之前可以执行的最大驻留内存量。如果您无法控制内存泄漏(例如来自封闭源代码C扩展),则此选项非常有用。

disho6za

disho6za3#

启动工作进程时,只需像这样设置max-tasks-per-child选项,以便在每个任务后重新启动工作进程:
第一个月
以下是文档:
https://docs.celeryproject.org/en/latest/userguide/workers.html#max-tasks-per-child-setting
使用此选项,您可以配置工作进程在被新进程替换之前可以执行的最大驻留内存量。
如果您无法控制内存泄漏,例如来自封闭源代码C扩展的内存泄漏,这将非常有用。
可以使用worker--max-memory-per-child参数或使用worker_max_memory_per_child设置来设置该选项。

ijnw1ujt

ijnw1ujt4#

这是celery 的一个问题,我认为已经解决了。
请参考:https://github.com/celery/celery/issues/2927

kx5bkwkv

kx5bkwkv5#

在您的设置中设置worker_max_tasks_per_child

ecfsfe2w

ecfsfe2w6#

您可能在librabbitmq中点击了this issue。请检查Celery是否正在使用librabbitmq>=1.0.1
一个简单的解决方法是:pip install librabbitmq>=1.0.1.

相关问题