Menu

Fotografía

50 millones de chips GPU nVidia para la supercomputadora de Elon Musk

Elon Musk, el CEO de xAI, va a gastar generosamente para entrenar a su inteligencia artificial Grok.

Elon Musk (Tesla, X, SpaceX…) demostró recientemente la seriedad con la que se toma la inteligencia artificial al describir la infraestructura tras el entrenamiento de Grok, el agente inteligente diseñado por xAI, una de sus empresas dedicadas a la IA. La supercomputadora Colossus 2, con 50 millones de chips nVidia, pronto estará en funcionamiento tras Grok AI. Así pues, nada menos que 230.000 unidades de procesamiento gráfico (GPU), incluyendo 30.000 GB200 de nVidia, conforman Colossus 1, la supercomputadora que mejora constantemente Grok. Y, ¿adivinen qué? Colossus 2 debería estar online en unas semanas, compuesta por unas 550.000 GPU GB200 y GB3000. Y esto es sólo el principio, ya que dentro de cinco años, Elon Musk quiere que su supercomputadora incorpore no menos de 50 millones de GPU nVidia H100, para una potencia total de 200 exaFlops, 20 veces más que el modelo actual más rápido del mundo.