Gumlet es una empresa que proporciona una plataforma SaaS (Software-as-a-Service) para procesar, almacenar y distribuir vídeo vía streaming. Normalmente lo hacían contratando infraestructura en Amazon Web Services, pero se dieron cuenta de algo: estaban pagando una fortuna, y quizás había una opción. Una que cada vez está más de moda.
Mejor montamos nuestros servidores. Aditya Patadia, fundador y CEO de Gumlet, explicaba cómo habían decidido crear sus propios servidores con sus propias GPUs en lugar de usar los servicios de AWS.
La historia. En Gumlet, contaba, sirven más de 2.500 millones de imágenes y vídeos al día que además pasan por una etapa de procesado. Las imágenes se siguen procesando con procesadores convencionales, pero para los vídeos la cosa era distinta.

Las GPUs pueden ser maravillosas. Para procesar vídeos comenzaron a usar GPUs en 2020. Usaron la arquitectura CUDA para sacar provecho del procesado de la GPU para transcodificar vídeo, y además podían ejecutar modelos de aprendizaje automático (machine learning) en esas mismas tarjetas gráficas.
Pero los costes estaban disparándose. Alquilar servidores con GPUs se empezó a volver muy caro. La demanda de potencia de GPU se multiplicó por 8 desde que empezó 2024, y comenzaron a pensar que tenía que haber una alternativa más asequible. Tras ver movimentos de repatriación a la nube como los que ha impulsado David Heinemeier Hansson o los responsables de Ahrefs, tomaron la decisión de montarse sus propios servidores.
Un servidor estupendo. Como explicaba Patadia, el servidor que crearon acabó estando compuesto por un procesador AMD 5700x en una placa base ASUS B450MA, 64 GB de RAM DDR4, 512 GB de SSD y lo más importante, una NVIDIA RTX4000 ADA SFF. Todo ello montado en racks 2U con una fuente de alimentación redundante.
Precio de tener vs precio de alquilar. El coste de cada servidor es de unos 2.300 dólares, una cifra que no es despreciable pero que desde luego parece mucho más atractiva que los 703 dólares que cuesta al mes una instancia (máquina) comparable en AWS, la g6.2xlarge.
Un coworking como centro de datos. Las necesidades de esta empresa eran relativamente modestas, y necesitaban espacio para 20 de estos servidores. En otros casos es factible alquilar ese espacio en centros de datos, pero con esa pequeña implantación acabaron por elegir otra opción: su espacio de coworking, contratado con WeWork, daba precisamente opción para una solución de hosting. Eso permitió que tuvieran todos sus servidores al lado de su oficina con fuentes de alimentación redundantes, refrigeración y conexión a internet. Bingo.
Imagen | GBPublic_PR
En Xataka | Microsoft lleva años ofreciendo Office en la nube bajo suscripción. Ahora quiere hacer lo mismo con Windows
Ver 5 comentarios
5 comentarios
Gonzalo
Todo el mundo sabe que la nube es muy cara y se te puede ir de costes a la más mínima, pero también es injusto calcular y comparar el coste de los servidores multiplicando únicamente por el precio que te ha costado cada uno. Que digo yo que si tienes tu propia infraestructura que está dando un servicio de 24 horas tendrás al menos 2-3 personas contratadas para las labores de administración y gestión. Y supongo que el espacio de WeWork tampoco será gratis. Y si en algún momento crecen más de lo esperado, a ver dónde meten los servidores nuevos. Todo eso se paga en los costes de la nube. Que hay mucha gente que no le hace falta y por eso es tan caro, pero no siempre es tan buena idea abandonarla.
inigoml
Estamos comparando un servidor con GPUs de gama empresarial con un PC de sobremesa con una GPU de gaming domestica.
Si a esta empresa le valía (20 PCs parecen haber sido suficientes) es que estaban utilizando mal la nube. No la necesitaban.
Por un lado el transcoding de video a nivel de GPU en cloud es tirar el dinero. Una simple Intel HD Graphics integrada tiene un fantástico encoder de video que puede procesar H.264 y H.265 sin inmutarse. Gratis, como quien dice.
Y para modelos de reconocimiento de imágenes donde no necesitas más que el hardware y no "todo lo demás que te da la nube" una RTX con arquitectura Ampere te basta y sobra.
Al final esta empresa se ha dado cuenta de que estaba haciendo un mal uso de los recursos. No necesitaba la nube pq no requería hardware de gama empresarial.
jjma1
El costo por el uso de GPU es excesivo en AWS y en AZURE.
Es interesante como la renta de un equipo te pagaría un servidor de las mismas caracteristicas en 4 meses.
Lo mas caro de un centro de datos local es la luz, sobretodo por la refrigeración, con todo, para mi es preferible tener las cosas en local