ANÁLISIS PAYDEN & RYGEL
La deflación del coste de la inteligencia artificial para LLM ya está en marcha
Redacción | Lunes 03 de febrero de 2025
La semana pasada, las noticias sacudieron los mercados al revelar que DeepSeek R1, un modelo de lenguaje extenso (LLM por sus siglas en inglés, Large Language Model) creado por un fondo de cobertura chino, tiene un rendimiento similar al de los LLM de vanguardia actuales, pero se entrenó a una fracción del coste. De esta manera, generar inteligencia artificial podría costar menos y requerir menos unidades de procesamiento gráfico (GPU por sus siglas en inglés, Graphic Processing Units) de gama alta, así como menos electricidad que el resto, y a medida que la inteligencia artificial se abarata, se genera un bucle de retroalimentación positiva con cada vez más usos e inversiones posibles por parte de los consumidores
De hecho, la deflación del coste de la inteligencia artificial para LLM ya está en marcha, y los requisitos informáticos necesarios para alcanzar un nivel de servicio constante se han reducido a la mitad cada ocho meses desde 2012.
Sin embargo, el gasto no ha dejado de aumentar en la carrera por crear una inteligencia artificial de “propósito general” (AGI por sus siglas en inglés Artificial General Intelligence), es decir, un modelo que supere a los humanos en todos los ámbitos. Y si el objetivo es la AGI, serán útiles más y mejores GPU y mayor eficiencia de cálculo.
Cuando un factor se abarata, se puede invertir más capital, no menos: nuestra apuesta es que la curva del gráfico siguiente, de rendimiento de todos los modelos frente al cálculo de entrenamiento en escala logarítmica, seguirá subiendo.