Виконання асинхронного завдання в Flask


103

Я пишу заявку на Flask, яка працює дуже добре, крім WSGIсинхронної та блокуючої. У мене є одне завдання, яке викликає сторонній API, і це завдання може зайняти кілька хвилин. Я хотів би зробити цей дзвінок (насправді це низка дзвінків) і дати йому запуститися. в той час як контроль повертається в колбу.

Мій погляд виглядає так:

@app.route('/render/<id>', methods=['POST'])
def render_script(id=None):
    ...
    data = json.loads(request.data)
    text_list = data.get('text_list')
    final_file = audio_class.render_audio(data=text_list)
    # do stuff
    return Response(
        mimetype='application/json',
        status=200
    )

Тепер, що я хочу зробити, це мати лінію

final_file = audio_class.render_audio()

запустити і забезпечити зворотний виклик, який буде виконаний, коли метод повернеться, тоді як Flask може продовжувати обробляти запити. Це єдине завдання, яке мені потрібно, щоб Flask працював асинхронно, і я хотів би порадити, як найкраще це реалізувати.

Я розглядав Twisted та Klein, але я не впевнений, що вони надмірні, оскільки, можливо, Threading було б достатньо. А може, Селера - хороший вибір для цього?


Я зазвичай для цього використовую селеру ... це може бути надмірно, але потокові роботи afaik не працюють добре у веб-середовищах (iirc ...)
Джоран Бізлі,

Правильно. Так - я просто розслідував Селера. Це може бути хорошим підходом. Легко реалізувати за допомогою колби?
Darwin Tech

хе, я, як правило, також використовую сокет-сервер (flask-socketio), і так, я думав, що це було досить просто ... найважче було встановити все
Джоран Бізлі

4
Я б рекомендував перевірити це . Цей хлопець пише чудові підручники для flask загалом, а цей чудово підходить для розуміння того, як інтегрувати асинхронні завдання в програму flask.
atlspin

Відповіді:


105

Я б використовував Селера, щоб впоратись з асинхронним завданням для Вас. Вам потрібно встановити брокера, який буде виконувати функції вашої черги завдань (рекомендується RabbitMQ та Redis).

app.py:

from flask import Flask
from celery import Celery

broker_url = 'amqp://guest@localhost'          # Broker URL for RabbitMQ task queue

app = Flask(__name__)    
celery = Celery(app.name, broker=broker_url)
celery.config_from_object('celeryconfig')      # Your celery configurations in a celeryconfig.py

@celery.task(bind=True)
def some_long_task(self, x, y):
    # Do some long task
    ...

@app.route('/render/<id>', methods=['POST'])
def render_script(id=None):
    ...
    data = json.loads(request.data)
    text_list = data.get('text_list')
    final_file = audio_class.render_audio(data=text_list)
    some_long_task.delay(x, y)                 # Call your async task and pass whatever necessary variables
    return Response(
        mimetype='application/json',
        status=200
    )

Запустіть програму Flask і запустіть інший процес, щоб запустити селера.

$ celery worker -A app.celery --loglevel=debug

Я хотів би також звернутися до Miguel Gringberg в підправити для більш докладного керівництва з використання селери з колби.


Селера - це тверде рішення, але воно не є легким рішенням і займає деякий час для налаштування.
wobbily_col

34

Інше можливе рішення - різьбонарізка. Хоча рішення, засноване на Celery, краще для масштабних додатків, якщо ви не очікуєте занадто багато трафіку на розглянуту кінцеву точку, потокова розробка є життєздатною альтернативою.

Це рішення засноване на презентації Мікеля Грінберга PyCon 2016 Flask at Scale , зокрема слайд 41 у його слайді. Його код також доступний на github для тих, хто цікавиться оригінальним джерелом.

З точки зору користувача код працює наступним чином:

  1. Ви телефонуєте до кінцевої точки, яка виконує тривале завдання.
  2. Ця кінцева точка повертає 202 Прийнято з посиланням для перевірки стану завдання.
  3. Виклики за посиланням стану повертають 202, поки такси все ще виконуються, і повертає 200 (і результат), коли завдання завершено.

Щоб перетворити виклик api на фонове завдання, просто додайте декоратор @async_api.

Ось повністю приклад:

from flask import Flask, g, abort, current_app, request, url_for
from werkzeug.exceptions import HTTPException, InternalServerError
from flask_restful import Resource, Api
from datetime import datetime
from functools import wraps
import threading
import time
import uuid

tasks = {}

app = Flask(__name__)
api = Api(app)


@app.before_first_request
def before_first_request():
    """Start a background thread that cleans up old tasks."""
    def clean_old_tasks():
        """
        This function cleans up old tasks from our in-memory data structure.
        """
        global tasks
        while True:
            # Only keep tasks that are running or that finished less than 5
            # minutes ago.
            five_min_ago = datetime.timestamp(datetime.utcnow()) - 5 * 60
            tasks = {task_id: task for task_id, task in tasks.items()
                     if 'completion_timestamp' not in task or task['completion_timestamp'] > five_min_ago}
            time.sleep(60)

    if not current_app.config['TESTING']:
        thread = threading.Thread(target=clean_old_tasks)
        thread.start()


def async_api(wrapped_function):
    @wraps(wrapped_function)
    def new_function(*args, **kwargs):
        def task_call(flask_app, environ):
            # Create a request context similar to that of the original request
            # so that the task can have access to flask.g, flask.request, etc.
            with flask_app.request_context(environ):
                try:
                    tasks[task_id]['return_value'] = wrapped_function(*args, **kwargs)
                except HTTPException as e:
                    tasks[task_id]['return_value'] = current_app.handle_http_exception(e)
                except Exception as e:
                    # The function raised an exception, so we set a 500 error
                    tasks[task_id]['return_value'] = InternalServerError()
                    if current_app.debug:
                        # We want to find out if something happened so reraise
                        raise
                finally:
                    # We record the time of the response, to help in garbage
                    # collecting old tasks
                    tasks[task_id]['completion_timestamp'] = datetime.timestamp(datetime.utcnow())

                    # close the database session (if any)

        # Assign an id to the asynchronous task
        task_id = uuid.uuid4().hex

        # Record the task, and then launch it
        tasks[task_id] = {'task_thread': threading.Thread(
            target=task_call, args=(current_app._get_current_object(),
                               request.environ))}
        tasks[task_id]['task_thread'].start()

        # Return a 202 response, with a link that the client can use to
        # obtain task status
        print(url_for('gettaskstatus', task_id=task_id))
        return 'accepted', 202, {'Location': url_for('gettaskstatus', task_id=task_id)}
    return new_function


class GetTaskStatus(Resource):
    def get(self, task_id):
        """
        Return status about an asynchronous task. If this request returns a 202
        status code, it means that task hasn't finished yet. Else, the response
        from the task is returned.
        """
        task = tasks.get(task_id)
        if task is None:
            abort(404)
        if 'return_value' not in task:
            return '', 202, {'Location': url_for('gettaskstatus', task_id=task_id)}
        return task['return_value']


class CatchAll(Resource):
    @async_api
    def get(self, path=''):
        # perform some intensive processing
        print("starting processing task, path: '%s'" % path)
        time.sleep(10)
        print("completed processing task, path: '%s'" % path)
        return f'The answer is: {path}'


api.add_resource(CatchAll, '/<path:path>', '/')
api.add_resource(GetTaskStatus, '/status/<task_id>')


if __name__ == '__main__':
    app.run(debug=True)


Коли я використовую цей код, у мене виникає помилка werkzeug.routing.BuildError: Не вдається побудувати URL-адресу для кінцевої точки 'gettaskstatus' зі значеннями ['task_id'] Чи щось мені не вистачає?
Ніколас Дюфаур,

14

Ви також можете спробувати використовувати за multiprocessing.Processдопомогою daemon=True; process.start()метод не блокує і ви можете повернути відповідь / статус відразу абонент в той час як ваші дорогі функції виконуються у фоновому режимі.

Я зіткнувся з подібною проблемою під час роботи з соколиним фреймворком, і використання daemonпроцесу допомогло.

Вам потрібно буде зробити наступне:

from multiprocessing import Process

@app.route('/render/<id>', methods=['POST'])
def render_script(id=None):
    ...
    heavy_process = Process(  # Create a daemonic process with heavy "my_func"
        target=my_func,
        daemon=True
    )
    heavy_process.start()
    return Response(
        mimetype='application/json',
        status=200
    )

# Define some heavy function
def my_func():
    time.sleep(10)
    print("Process finished")

Ви повинні отримати відповідь негайно, а через 10 секунд ви побачите надруковане повідомлення на консолі.

ПРИМІТКА: Майте на увазі, що daemonicпроцеси не можуть породжувати будь-які дочірні процеси.


асинхронний - це певний тип паралельності, який не є ні потоковим, ні багатопроцесорним. Проте створення
потоків

4
Я не розумію вашої думки. Автор говорить про асинхронне завдання, яке виконується "у фоновому режимі", таким чином, що абонент не блокує, поки не отримає відповідь. Нерест процесу деамону є прикладом того, де можна досягти такого асинхронізму.
Томаш Бартковяк,

що якщо /render/<id>кінцева точка очікує чогось в результаті my_func()?
Will Gu

my_funcНаприклад, ви можете зробити відповідь / биття серця іншою кінцевою точкою. Або ви можете встановити та поділитися деякою чергою повідомлень, за допомогою якої ви можете спілкуватисяmy_func
Томаш Бартковяк,
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.