Utiliza este crédito gratuito para lanzar tus proyectos ahora en Digital Ocean, eres libre de gastarlo cuando quieras en los siguientes 60 días.
Índice del contenido
¿Cómo Escalar Django Para Manejar Millones De Vistas?
¿Cómo Escalar Django Para Manejar Millones De Vistas?
¿Te gustaría que tu aplicación de Django pudiera manejar un millón de visitas? Esta entrada es una recopilación de artículos, libros, y videos que he leído sobre como llevar una aplicación de Django hasta sus máximas capacidades, incluso he implementado algunas de estas recomendaciones yo mismo.
También es buen momento para recordar que si tu aplicación va empezando, probablemente no deberías obsesionarte con su rendimiento… aún .
Reduce las queries lentas en Django
Como ya sabes, el acceso a la base de datos suele ser el cuello de botella de la mayoría de las aplicaciones. La acción más importante a realizar es reducir el número de queries y el impacto de cada una de estas. Puedes reducir el impacto de tus queries en un 90%, y no exagero.
Es bastante común escribir código que ocasiones múltiples consultas a la base de datos, así como búsquedas bastante costosas.
Identifica que consultas se están haciendo en tu aplicación usando django-debug-toolbar y redúcelas, o vuélvelas más eficientes:
- select_related para evitar múltiples búsquedas en relaciones tipo llave foránea o uno a uno
- prefetch_related para prevenir búsquedas excesivas en relaciones muchos a muchos o muchos a uno
- django_annotate para agregar información a cada objecto de una consulta. Tengo una entrada donde explico la diferencia entre annotate y aggregate
- django_aggregate para procesar toda la información de una sola consulta en un solo dato (sumatoria, promedios).
- Objeto Q para unir consultas por medio de OR o AND directamente desde la base de datos
- Expresiones F para realizar operaciones a nivel base de datos en lugar de en código Python
- annotate y subqueries Ten cuidado con la forma en que Django utiliza anotar y subconsultas y escribir CTEs o SQL en crudo si es necesario.
Ejemplo de uso con select_related.
# review/views.py
from .models import Review
def list_reviews(request):
queryset = Review.objects.filter(product__id=product_id).select_related('user')
# Ahora no se tocará la base de datos cada que se use review.user
# ...
Configura gunicorn correctamente
Gunicorn es el servidor Python WSGI HTTP más usado para aplicaciones de Django. Pero no es asíncrono, considera combinarlo con una de sus contrapartes asíncronas: hypercorn o uvicorn. Este último implementa workers de gunicorn.
Usa los workers adecuados en gunicorn
Asegúrante de estar usando los workers de gunicorn correctos, de acuerdo a la cantidade núcleos de tu procesador.
Ellos recomiendan establecer los workers en (2 x número de nucleos) + 1. Según la documentación, con 4-12 workers puedes servir desde cientos hasta miles de peticiones por segundo, por lo que debería bastar para un sitio web de escala mediana o hasta grande.
Mejora el rendimiento de tus serializers
Si usas DRF y usas sus clases genéricas para crear serializers, puede que no estés obteniendo exactamente el mejor rendimiento. Las clases genéricas para serializers realizan validación de los datos, que puede ser bastante costoso en tiempo si solo vas a leer datos.
Incluso si recordaste marcar tus campos como read_only, los serializers de DRF no son los más rápidos, puede que quieras revisar Serpy , Marshmallow . El tema es bastante amplio, pero quédate con la idea de que hay un área de mejora importante en los serializers de Django.
Te dejo este artículo que explica como unos desarrolladores lograron reducir el coste en tiempo, de la serialización en un 99%.
Usa paginación en tus vistas
Probablemente suene bastante obvio, aún así siento que debo mencionarlo: no necesitas devolver toda una tabla de una base de datos si a tu usuario solo le resultan útiles los primeros registros.
Usa el objeto paginator que ofrece Django, o limita los resultados de una búsqueda a unos cuantos.
DRF también cuenta con una opción para paginar sus resultados , revísala.
# review/views.py
from django.views.generic import ListView
from .models import Review
class ReviewList(ListView):
model = Review
paginate_by = 25
context_object_name = 'review_list'
Usa índices en tus modelos
Entiende tus queries más complejas e intenta crear índices para ellas. El índice hará tus búsquedas en Django más rápidas, pero también ralentizará, ligeramente, las creaciones y actualizaciones de nueva información, además de ocupar un poco más de espacio en tu base de datos. Intenta llegar a un balance sano entre velocidad y espacio de almacenamiento usado.
from django.db import models
class Review(models.Model):
created = models.DateTimeField(
auto_now_add=True,
db_index=True,
)
Usa índices para tus búsquedas
Si tu aplicación hace un uso intensivo de las búsquedas de información, considera usar un motor de búsqueda eficiente, como Solr , en lugar de implementar el código por ti mismo.
Hay muchas opciones disponibles:
- ElasticSearch
- Solr
- Whoosh
- Xapian
Remueve middleware que no uses
Cada middleware implica un paso extra en cada petición web, por lo que remover todos aquellos middlewares que no uses supondrá una ligera mejora en la velocidad de respuesta de tu aplicación.
Aquí te dejo algunos middleware comunes que no siempre son usados, el de mensajes, páginas planas y el de localización, no, no me refiero a la ubicación geográfica, sino el de traducir el contenido acorde al contexto local.
MIDDLEWARE = [
# ...
'django.contrib.messages.middleware.MessageMiddleware',
'django.contrib.flatpages.middleware.FlatpageFallbackMiddleware',
'django.middleware.locale.LocaleMiddleware'
]
Caché en Django
Cuando el tiempo de respuesta de tu aplicación se vuelve un problema, deberías empezar a colocar todos los resultados costosos en tiempo y recursos en caché.
¿Te gustaría profundizar en el sistema de caché?, tengo un post sobre la caché en django con memcached que puedes revisar para profundizar más.
Si tu página tiene demasiados modelos, y raramente cambian, no tiene sentido acceder cada vez a la base de datos para solicitarlos con cada nueva petición HTTP. Solo coloca la respuesta de esa solicitud en caché y tu tiempo de respuesta mejorará, de esta manera cada que se pida el mismo contenido, no será necesario realizar una nueva petición o cálculos a la base de datos, sino que el valor se devolverá directamente de memoria.
Opciones de caché disponibles en Django
Entre las opciones disponibles está:
- Memcached
- Redis
- Cache de base de datos
- Cache de sistema de archivos
# settings.py
CACHES = {
'default': {
'BACKEND': 'django.core.cache.backends.memcached.MemcachedCache',
'LOCATION': '127.0.0.1:11211',
}
}
La caché de django es configurable a muchísimos niveles, desde el sitio entero hasta vistas o incluso pequeños trozos de información.
# myapp/views.py
from django.shortcuts import render
from django.views.decorators.cache import cache_page
@cache_page(60*15)
def my_view(request):
return render(request, 'myapp/template.html', {
'time_consuming_data': get_time_consuming_data()
})
Toma en cuenta que la caché basada en memoria (memcached, redis) es un método de almacenamiento efímero, toda la caché desaparecerá si el sistema se reinicia o apaga.
Usa Celery para tareas asíncronas
A veces el cuello de botella es responsabilidad de terceros. Cuando envías un email o solicitas información de un tercero, no tienes manera de saber cuanto tiempo demorará tu solicitud, una conexión lenta o un servidor sobresaturado pueden mantenerte esperando por una respuesta. No tiene caso mantener al usuario esperando decenas de segundos por el envío de un correo electrónico, devuélvele una respuesta y transfiere el envío del correo electrónico a una cola para que se procese más tarde. Celery es la opción más popular para hacerlo.
¿No tienes idea de donde empezar?, tengo un par de entradas donde explico como ejecutar tareas asíncronas con celery y django.
# myapp/views.py
from celery import shared_task
@shared_task
def send_order_confirmation(order_pk):
email_data = generate_data_for_email(order_pk)
send_customized_mail(**email_data)
Particiona las tablas en tu base de datos
Cuando tus tablas superan los millones de registros, cada búsqueda recorrerá la base de datos completa, demorarando muchísimo tiempo en el proceso. ¿Cómo podríamos solucionarlo? partiendo las tablas en partes para que cada búsqueda se haga sobre una de las partes, por ejemplo, una tabla para los datos de un año atrás (o el periodo que tú prefieras), otra para los datos de dos años atrás y así hasta el primer dato.
Las instrucciones para implementar el particionado dependen de la base de datos que estés usando. Si estás usando postgres esta función está solo disponible para versiones de Postgres superiores a la 10. Puedes usar django-postgres-extra para implementar esas funcionalidades extras que no se encuentran en el ORM de django.
La implementación es demasiado extensa y requeriría una entrada completa. Hay un excelente artículo, en inglés, que te explica como implementar el particionado de Postgresql en Django.
Considera también investigar sobre réplicas de bases de datos para lectura de archivos, dependiendo de la arquitectura de tu aplicación, puedes implementar múltiples replicas para lectura y una maestra que sirva para escribir. Este aproximación es un tema entero y se queda fuera del alcance de una pequeña entrada, pero ahora ya sabes que buscar.
Usa un CDN (Content Delivery Network)
Servir imágenes y archivos estáticos puede dificultar la parte importante de tu aplicación; generar contenido dinámico. Puedes delegar la tarea de servir contenido estático a una red de distribución de contenidos (CDN, por sus siglas en inglés).
Además de beneficiarse de las localizaciones geográficas de los CDN; un servidor en el mismo país (o continente) que tu usuario dará como reusltado una respuesta más rápida.
Existen muchas opciones de CDN disponibles, entre las opciones más populares están AWS, Azure , Digital Ocean, Cloud Flare, entre otras.
Denormalización
A veces hay consultas bastante costosas en tiempo de ejecución que podrían resolverse agregando redundancia, información repetida. Por ejemplo, imagina que quieres devolver la cantidad de productos que tienen la frase “para niños” en tu página principal, realizar una query que busque la palabra y luego ejecute un conteo es bastante sencillo. Pero, ¿y si tienes 10,000 o 100,000 o 1,000,000 de productos?, cada vez que quieras acceder al valor del conteo, tu base de datos recorrerá toda la tabla y contará los datos.
En lugar de realizar un conteo, podrías guardar ese número en la base de datos o en memoria y devolverlo directamente, para mantenerlo actualizado podrías usar un conteo periódico o incrementarlo con cada adición.
Por supuesto esto trae el problema de que ahora tienes más datos que mantener, no acoplados entre sí, por lo que solo deberías usar esta opción para resolver tus problemas de rendimiento en Django si ya agotaste las demás opciones.
count = my_model.objects.filter(description__icontains="para niños").count()
# ... denormalizando
count = my_count.objects.get(description="para niños") # Cada fila del modelo my_count contiene una descripción y el total de resultados
total_count = count.total
Revisa el impacto que tienen los plugins de terceros
A veces nuestro sitio web funciona de manera casi perfecta, pero plugins de terceros, como el caso de las herramientas analíticas de facebook, google, plugins de integraciones con el chat de redes sociales afectan el rendimiento de nuestra aplicación. Aprende a retrasar su carga o modifícalos para reducir su impacto, usando async, defer u otros atributos HTML, en combinación con Javascript.
Si lo anterior es imposible evalúa alternativas o considera eliminarlos.
Considera usar otro intérprete para mejorar el rendimiento en django
No todo es base de datos, a veces el problema está en el código Python en si mismo.
Además del intérprete normal de Python, el que se ofrece por defecto en la página oficial de Python, existen otros intérpretes que aseguran darte un mayor rendimiento.
Pypy es uno de ellos, se encarga de optimizar el código Python analizando el tipo de objetos que se crean con cada ejecución. Esta opción es ideal para aplicaciones donde Django se encargue de devolver un resultado que fue procesado principalmente usando código Python.
Otro intérprete, o más bien un superset de Python llamado Mojo promete ser un super set de Python (así como Typescript lo es de Javascript) con un rendimiento muchas veces mayor, ahora mismo no es compatible con Django pues se centra en AI, pero quizás en el futuro lo sea, por lo que mantente atento a cualquier cambio de esta prometedora tecnología.
Pero no todo es maravilloso; los intérpretes de terceros, incluido pypy, no suelen ser compatibles al 100% con todo el código Python, pero sí con la mayoría, por lo que, igual que la opción anterior. Usar un intérprete de terceros también debería de ser de las últimas opciones que consideres para resolver tu problema de rendimiento en Django.
Escribe los cuellos de botella en un lenguaje de bajo nivel con Swig
Si has probado todo lo anterior y aún así tienes una aplicación con cuellos de botella, probablemente estás exprimiendo demasiado a Python y necesites de la velocidad de otro lenguaje. Pero no te preocupes, no tienes que rehacer toda tu aplicación en C o C++. Swig te permite crear módulos en C, C++, Java, Go u otros lenguajes de más bajo nivel para importarlos directamente desde Python.
¿Quieres saber que tanta diferencia hay entre Python y un lenguaje compilado como go? en mi entrada Python vs Go comparo la velocidad de ambos lenguajes.
Si tienes un cuello de botella causado por algún cálculo matemático muy costoso, que pone en evidencia la falta de velocidad de Python al ser un lenguaje interpretado, quizás te convenga reescribir el cuello de botella en algún lenguaje de bajo nivel para luego llamarlo usando Python. De esta manera tendrás la facilidad de uso de Python con la velocidad de un lenguaje de bajo nivel.
ORMs y frameworks alternativos
Dependiendo del avance de tu aplicación quizás te convenga migrar a otro framework más veloz que Django. El ORM de Django no es exactamente el más veloz que existe, y, al momento de escribir esta entrada, no es asíncrono. Quizás te convenga evaluar el darle una oportunidad a sqlalchemy , ponyorm .
O, si tu aplicación no es muy compleja a nivel de base de datos, quizás quieras escribir tus propias consultas sql y combinarlas con algún otro framework.
La tendencia actual es separar frontend de backend, por lo anterior Django está usándose en conjunto con Django Rest Framework para crear APIs, por lo que, si entre tus planes está la creación de una API, quizás te convenga considerar FastAPI, si no lo conoces date una vuelta por mi entrada donde te explico los aspectos básicos de FastAPI.
Bonus: aplicaciones con más de 63 000 modelos
Hay una plática que dieron en la djangocon2019 donde el ponente explica como lograron lidiar con una aplicación con 63000 endpoints, cada uno con diferentes permisos.
Bonus: Blogs técnicos
Pinterest e Instagram son dos páginas gigantescas que partieron eligiendo Django como su backend. Puedes encontrar información sobre optimización y problemas muy concretos en sus blogs técnicos.
El blog de instagram tiene una entrada llamada Web Service efficiency at Instagram with Python , donde explican algunos problemas que se encuentran al manejar 500 millones de usuarios y como solucionarlos.
Te dejo los enlaces a los blogs a continuación:
References:
- Definitive Guide to Django: Web Development Done Right by Adrian Holovaty and Jacob Kaplan Moss
- Two scoops of Django 1.8 by Daniel Roy Greenfeld and Audrey Roy Greenfeld
- High performance Django by Peter Baumgartner and Yann Malet