El avance de la empresa china DeepSeek ha generado un sismo en la industria de los chips de inteligencia artificial, abriendo oportunidades para compañías emergentes que buscan competir con el dominio de Nvidia. Su enfoque en modelos de IA más eficientes y económicos ha reconfigurado las expectativas en Silicon Valley y ha desatado un interés sin precedentes en la inferencia de IA.
El impacto de DeepSeek se reflejó en el mercado con la eliminación de más de 800.000 millones de dólares en la capitalización de gigantes tecnológicos estadounidenses. Sin embargo, en lugar de preocuparse, Andrew Feldman, CEO de la startup de chips Cerebras, celebra el momento. «Estamos un poco contentos. Son días maravillosos. No podemos responder a los teléfonos lo suficientemente rápido en este momento», declaró a Forbes.
Feldman destaca que el enfoque de DeepSeek ha cambiado la percepción tradicional de que más chips y mayores presupuestos significan mejor IA. La empresa china ha demostrado que es posible desarrollar modelos de código abierto altamente eficientes con costos de entrenamiento significativamente menores. Esto ha generado un creciente interés en startups como Cerebras, que se especializa en la fabricación de chips optimizados para la inferencia de IA, el proceso mediante el cual un modelo ya entrenado opera y genera respuestas en tiempo real.

Nuevas oportunidades para la inferencia de IA
El dominio de Nvidia en la inferencia no es tan absoluto como en el entrenamiento de modelos, lo que ha permitido el surgimiento de empresas emergentes como SambaNova, Groq y Etched. Rodrigo Liang, CEO de SambaNova, considera que DeepSeek ha cambiado las reglas del juego al demostrar que es posible optimizar costos sin sacrificar rendimiento. «DeepSeek cambió el guión de la IA para el código abierto y la inferencia», afirmó.
Por su parte, Sunny Madra, director de operaciones de Groq, ha reportado un incremento en las suscripciones y el uso de sus chips desde que la empresa incorporó el modelo R1 de DeepSeek a su plataforma GroqCloud. Robert Wachen, cofundador de Etched, ve en este cambio una señal de que la inferencia se convertirá en una parte fundamental del desarrollo de IA, más allá del costoso proceso de entrenamiento de modelos.

Controversia sobre los costos de DeepSeek
Las afirmaciones de DeepSeek sobre los costos de entrenamiento de su modelo V3 han sido cuestionadas en la industria. La empresa aseguró haber entrenado su modelo de 671 mil millones de parámetros en solo dos meses con una inversión de 5,58 millones de dólares, mientras que OpenAI gastó cerca de 100 millones de dólares en su modelo GPT-4. Sin embargo, expertos creen que DeepSeek pudo haber utilizado más recursos de los que reporta oficialmente, incluyendo hasta 50.000 chips H100 de Nvidia, actualmente prohibidos en China.
A pesar de estas dudas, el impacto de DeepSeek en el mercado de IA es innegable. Su estrategia ha demostrado que no solo es posible entrenar modelos con menos inversión, sino que una mayor inversión en inferencia puede ofrecer mejores resultados. La reciente publicación en código abierto de su modelo R1, similar a o1 de OpenAI pero gratuito, refuerza esta tendencia al incentivar un mayor uso de la IA con menor costo para los usuarios.
Este nuevo panorama abre una ventana de oportunidad para empresas como Cerebras, que buscan capitalizar la creciente demanda de chips optimizados para la inferencia. Con más usuarios accediendo a modelos de IA eficientes y de bajo costo, la competencia en el sector se intensifica, amenazando el dominio de Nvidia y promoviendo un ecosistema más diverso en la industria de chips de inteligencia artificial.