Nvidia -valorada en más de 3 billones de dólares- experimentó un meteórico ascenso tras conquistar el mercado de las GPU y ahora domina los aceleradores de Inteligencia Artificial. Su motor de crecimiento para 2025 apunta a la robótica humanoide, un ámbito donde Amazon y Google también acumulan intereses.
Para encarar este desafío se apalanca en dos hitos: la explosión de modelos de inteligencia artificial generativa (IAG) y la facultad de adiestrar a los robots en mundos virtuales creados a la medida de cada requerimiento.
Parte del éxito de Nvidia es que logra adelantarse a lo que vendrá -algo tan complejo como predecir el futuro- con mucha anticipación. El propio Jen-Hsun Huang, CEO de compañía, fomenta ese pensamiento lateral cuando sus empleados desarrollan nuevos conceptos.
A este mercado intangible Huang lo llama «zero-billion-dollar market». Ya que se trata de productos que por su alto grado de innovación, todavía no tienen competidores ni tampoco clientes. Este es el caso de la robótica, donde sólo unos pocos se animan a unir las piezas.
Nvidia, pionero en el sector de la robótica
Para consolidarse como un referente, Nvidia cruzó diferentes plataformas propietarias que incluye desde sistemas DGX para entrenar modelos de IA, Omniverse para elaborar gemelos digitales y desde Thor, integra lo último en hardware.
Omniverse es una plataforma de colaboración y simulación en 3D desarrollado para ver cómo reaccionan los robots a determinados estímulos y sus creadores puedan practicar el razonamiento y realizar acciones sin causar daños.
El software tiene la capacidad de representar como se ven y comportan los objetos (rígidos, blandos y gaseosos) en el mundo real. Esto incluye cómo se mueve la luz o reaccionan las superficies.
El vértice de este ambicioso proyecto es Jetson Thor, cuya arquitectura está basada en Sistema en un Chip (SoC) NVIDIA Thor. Con sus 2.000 teraflops, está diseñado para abordar las tareas de IA más exigentes con una velocidad y eficiencia sin precedentes.
Esta elevada capacidad de procesamiento otorgará a los autómatas la posibilidad de aceptar órdenes complejas como el reconocimiento de objetos en tiempo real, el procesamiento del lenguaje natural y la navegación autónoma.
Deepu Talla, vicepresidente de robótica de Nvidia, considera que en la actualidad, el mercado alcanzó un «punto de inflexión» fundamental para la IA física y la robótica al que llamó «el momento ChatGPT».
Sin embargo, el enfoque estratégico de Nvidia no contempla la competencia directa con fabricantes establecidos como Tesla y Figure AI, sino que la empresa planea proporcionar servicios tercerizados a pedido (OEM) para otros fabricantes.
Incluso, la firma jugó un papel crucial en la concepción de Optimus, el robot humanoide de Tesla. La colaboración entre ambas empresas se centró en proporcionar la base necesaria para que el robot de Elon Musk pueda realizar tareas complejas sin intervención humana.
“Pretendemos convertirnos en el OEM subyacente para los desarrolladores de robots, ofreciendo la infraestructura tecnológica que necesitan para construir sus propias soluciones”, explicó Talla.
Cruce gigante de intereses
Se prevé que el mercado mundial de semiconductores alcance los 640.000 millones de dólares en 2025, un aumento del 10% con respecto a 2024. Este crecimiento se debe, en gran parte, a la demanda de chips de IA.
En esta carrera, junto con la evolución de los modelos, crece a la par el hardware y los recursos destinados para lograr que las máquinas inteligentes procesen información, aprenden, resuelven problemas y tomen decisiones más precisas.
Aunque Nvidia lidera este sector, su incursión en la robótica llega en un momento en que sus principales clientes -Amazon y Google- están confeccionando sus propios chips para reducir la dependencia de proveedores externos.
Es así como Amazon está optimizando sus procesadores Trainium, que prometen revolucionar el entrenamiento de modelos de aprendizaje automático y competir directamente con los chips que suministra Nvidia.
Trainium está categorizado como un acelerador de IA, que en realidad es un conjunto bastante amplio de soluciones para potenciar la IA. Está diseñada para sistemas con 100 mil millones de parámetros y brinda hasta 190 teraflops para entrenamiento más veloces.
A esta misma carrera se sube Google con sus Unidades de Procesamiento Tensorial (TPU). La firma utiliza estos chips tanto en sus propios servicios como en Google Cloud, ofreciendo una opción muy competitiva en el mercado de la IA.
A diferencia de los procesadores de uso general, como las CPU y las GPU, las TPU están diseñadas específicamente para acelerar tareas de aprendizaje automático, centrándose en operaciones como multiplicaciones de matrices y cálculos tensoriales. Aunque no son aptas para otros menesteres, como la ejecución de juegos 3D.
Las TPU están optimizadas para ofrecer un alto rendimiento con un bajo consumo de energía y una latencia mínima, lo que las vuelve ideales para el entrenamiento de redes neuronales.
Entregan una solución más rentable y eficiente en comparación con otras opciones de hardware y proporcionan una potencia de cálculo significativa para las tareas de aprendizaje automático.
En la actualidad, las TPU son un componente básico de la infraestructura en la nube de Google y se utilizan para impulsar diversas aplicaciones basadas en IA, como el reconocimiento de imágenes, los chatbots, el procesamiento del lenguaje natural, la síntesis de voz y los sistemas de recomendación.
SL