¿Qué lleva a una empresa tecnológica a pasar de ser pionera en gráficos para videojuegos a convertirse en una potencia de la inteligencia artificial? El crecimiento de Nvidia, que ha pasado de ser una empresa emergente con dificultades a convertirse en el fabricante de chips más valioso del mundo, muestra un extraordinario viaje de innovación y pivotaje estratégico. La evolución de la empresa demuestra cómo la inversión temprana en tecnologías emergentes, combinada con estrategias empresariales adaptables, puede conducir al dominio del mercado.
Lo que Jensen Huang, CEO de la empresa, y su equipo no podían prever era hasta qué punto los avances en IA encajarían a la perfección con la infraestructura de procesamiento paralelo que ya habían construido. Sigue leyendo para saber cómo esta empresa ha revolucionado dos sectores y qué futuro le espera en un panorama cada vez más competitivo.
Imagen vía Pexels(Licencia). Imagen recortada.
Índice
Cómo ha crecido Nvidia a lo largo de los años
Nvidia pasó estratégicamente de los gráficos para juegos a la tecnología de IA hace más de una década, invirtiendo miles de millones y movilizando a miles de ingenieros para desarrollar hardware y software especializados en IA. La compañía reutilizó sus chips de unidades de procesamiento gráfico (GPU), diseñados originalmente para videojuegos, para abordar cálculos de IA, aprovechando sus superiores capacidades de procesamiento paralelo. Este compromiso temprano y la innovación tecnológica posicionaron a Nvidia en la vanguardia de la revolución de la IA, permitiéndole satisfacer las complejas demandas de la IA y el aprendizaje automático con soluciones de alto rendimiento y eficiencia energética.
(Nota breve: las GPU son procesadores especializados diseñados para acelerar el renderizado de gráficos. Son cruciales para tareas que requieren procesamiento paralelo, como el renderizado 3D, la reproducción de vídeo y -más recientemente- el aprendizaje automático y las aplicaciones de IA).
Exploraremos cómo el crecimiento de Nvidia le ha llevado a dominar la computación de IA, los retos a los que se enfrenta la empresa y otras formas en las que Nvidia está innovando.
El giro de Nvidia hacia la IA
Según Stephen Witt en La máquina de pensarla revolución de la IA que transformó a Nvidia de una empresa de gráficos en una de las empresas tecnológicas más valiosas del mundo comenzó cuando los investigadores descubrieron que un tipo concreto de modelo de aprendizaje informático denominado red neuronal podía lograr resultados sin precedentes, pero sólo cuando se alimentaba exactamente con el tipo de procesamiento paralelo masivo que CUDA hacía accesible.
Las redes neuronales -sistemas informáticos diseñados para imitar a grandes rasgos la forma en que el cerebro humano procesa la información- han existido en teoría durante décadas, pero seguían siendo poco prácticas hasta que los investigadores descubrieron cómo entrenarlas eficazmente utilizando enormes cantidades de datos y potencia de cálculo. A diferencia del software tradicional, que sigue reglas predeterminadas, las redes neuronales aprenden analizando patrones en vastos conjuntos de datos mediante millones de cálculos simultáneos. Este proceso de aprendizaje, denominado "entrenamiento", requiere exactamente el tipo de procesamiento paralelo masivo para el que se diseñaron las GPU de Nvidia.
(Nota breve: el equivalente biológico de los chips de procesamiento de los que habla Witt -las células nerviosas del cerebro- es mucho más lento que el ordenador más básico. La ventaja del cerebro es que su capacidad de procesamiento paralelo es inigualable. En Mil cerebrosel neurocientífico Jeff Hawkins explica que el neocórtex, la parte del cerebro responsable de las funciones cognitivas superiores, consta de unas 150.000 columnas corticales-grupos de células nerviosas que actúan como unidades discretas de procesamiento de la información. Hawkins escribe que la cognición humana surge del procesamiento paralelo de todas esas columnas corticales que trabajan juntas como un almacén gigante lleno de GPU, produciendo lo que tu mente consciente percibe como tu experiencia de la realidad).
El avance de AlexNet que validó la estrategia de Nvidia
En 2012, investigadores de la Universidad de Toronto demostraron el potencial de las redes neuronales utilizando la tecnología de Nvidia. Según Witt, un equipo de investigadores dirigido por Alex Krizhevsky utilizó dos tarjetas gráficas Nvidia estándar con software CUDA para crear una red neuronal de reconocimiento de imágenes llamada AlexNet. Esta red no sólo funcionaba ligeramente mejor que las anteriores, sino que representaba un avance fundamental que dejaba obsoletos otros métodos.
Lo que hizo revolucionario a AlexNet no fue sólo su rendimiento, sino lo que reveló sobre la relación entre potencia de cálculo y capacidad de IA. Los investigadores habían descubierto que cuanta más potencia de procesamiento paralelo podían aplicar al entrenamiento de redes neuronales, mejores eran los resultados. Ese mismo año, señala Witt, los investigadores de Google habían entrenado una red neuronal para identificar vídeos de gatos utilizando 16.000 procesadores tradicionales. El equipo de Krizhevsky logró resultados de talla mundial con solo dos placas de circuito Nvidia.
(Nota breve: AlexNet utiliza la "convolución", una operación matemática que desliza pequeños filtros de detección de patrones por una imagen -como si se moviera una pequeña ventana- para buscar bordes, formas o texturas. Dado que esto requiere miles de cálculos idénticos realizados simultáneamente a través de la imagen, se ajusta perfectamente a lo que las GPU están diseñadas para hacer. Más capacidad de cálculo significa tener más filtros ejecutándose en paralelo, lo que permite a la red neuronal detectar características cada vez más complejas, desde simples bordes hasta objetos completos como caras. Esta es la razón por la que aumentar la potencia de procesamiento hace que la IA sea más capaz: Más potencia de cálculo significa, literalmente, reconocer patrones más sofisticados).
Mientras que la comunidad investigadora de IA tardó inicialmente en comprender todas las implicaciones de AlexNet, Witt explica que Huang lo reconoció inmediatamente como una gran oportunidad para la arquitectura de computación paralela de Nvidia. Rápidamente reorientó toda la empresa hacia el "aprendizaje profundo", el tipo de entrenamiento de redes neuronales demostrado por AlexNet, y declaró a Nvidia "empresa de IA" casi de la noche a la mañana. Este giro rápido y decisivo resultó crucial para aprovechar la oportunidad emergente que transformaría tanto a Nvidia como a la industria tecnológica.
Cómo Transformers creó la revolución de la inteligencia artificial lingüística
El siguiente gran avance se produjo en 2017, cuando los investigadores de Google desarrollaron la arquitectura de transformadores. Según Witt, los transformadores son un tipo de red neuronal diseñada para procesar el lenguaje analizando las relaciones entre todas las palabras de un texto simultáneamente, en lugar de procesarlas de una en una. En lugar de leer una frase de principio a fin como hacen los humanos, los transformadores pueden examinar cada palabra en relación con todas las demás al mismo tiempo. Esta capacidad de procesamiento paralelo hace que los transformadores sean perfectamente adecuados para la aceleración en la GPU, lo que significa que pueden aprovechar al máximo la capacidad de los chips de Nvidia para realizar miles de cálculos simultáneamente, creando otra gran oportunidad para Nvidia.
(Nota breve: Aunque los transformers representaron un gran avance en el procesamiento del lenguaje por IA, siguen enfrentándose a una importante "barrera del significado": No entienden el lenguaje como los humanos. En Inteligencia ArtificialMelanie Mitchell explica que los transformadores se basan en la comparación estadística de patrones. En otras palabras, procesan el texto sin comprender realmente su significado. Además, carecen de los conocimientos intuitivos sobre el mundo que nosotros damos por sentados, lo que les hace vulnerables a errores sorprendentes. Esto sugiere que la alineación entre los transformadores y las capacidades de procesamiento paralelo de Nvidia, aunque comercialmente exitosa, puede representar una sofisticada coincidencia de patrones más que la verdadera inteligencia que preocupa a los críticos de la IA).
Los transformadores permitieron el desarrollo de grandes modelos lingüísticos (LLM), sistemas de IA que utilizan la arquitectura de transformadores para procesar y generar lenguaje tras ser entrenados con grandes cantidades de texto. Modelos como la serie GPT de OpenAI requerían una potencia de cálculo sin precedentes para entrenarse. Pero los investigadores descubrieron que a medida que estos modelos crecían y consumían más recursos informáticos, se volvían mucho más capaces. Los modelos destinados a predecir la siguiente palabra de una frase podían traducir idiomas, escribir código o explicar conceptos científicos. Witt explica que esto creó un bucle de retroalimentación: Más potencia de cálculo conducía a una IA más capaz, lo que justificaba mayores inversiones en infraestructura, todo lo cual beneficiaba a Nvidia.
Cómo las fábricas de IA se convirtieron en infraestructuras esenciales
Las exigencias computacionales de los modelos de IA basados en transformadores crearon un nuevo reto. Witt señala que las tareas informáticas tradicionales podían realizarse con una sola máquina potente. Pero entrenar a los LLM más avanzados exigía dividir el trabajo en millones de piezas y coordinar los cálculos entre miles de chips en tiempo real. La solución de Huang fue lo que él imaginó como "fábricas de IA", centros de datos especializados diseñados específicamente para entrenar y ejecutar sistemas de IA. Representaban una nueva forma de infraestructura industrial que consumiría datos brutos y produciría inteligencia, de forma muy parecida a como las fábricas tradicionales consumen materias primas y producen bienes.
| De la planta de producción a la fábrica de inteligencia artificial: Una nueva forma de alienación La fábrica de IA de Huang revela una nueva manifestación de las observaciones que Karl Marx hizo en su teoría de la alienación de los trabajadores: la desconexión entre las personas y los productos que producen. Las fábricas tradicionales separaban a los trabajadores de los resultados de su trabajo físico, pero las fábricas de IA crean una nueva forma de separación entre los creadores humanos y su producción intelectual. Los LLM se entrenan con enormes conjuntos de datos de escritura humana, arte y otros trabajos creativos. Este proceso transforma la creatividad humana en materia prima para la producción algorítmica: Miles de millones de pensamientos, experiencias y expresiones creativas de las personas se subsumen en conjuntos de datos que se utilizan para reducir la creación humana de significados a relaciones estadísticas. El proceso se basa en múltiples capas de abstracción y "alienación" que se alejan progresivamente de la comprensión humana. Los sistemas de IA convierten primero el texto en listas de números que representan la posición de cada palabra en el espacio matemático. A continuación, el sistema identifica patrones en la forma en que esos números se relacionan entre sí, en lugar de comprometerse con el significado real del propio lenguaje. Por tanto, cuando los sistemas de IA generan texto o arte, están haciendo matemáticas avanzadas: Recombinan patrones numéricos para producir resultados que imitan la expresión humana. El texto o el arte que crea un sistema de IA es un eco matemático de los patrones de pensamiento humano, pero despojado del significado y la significación originales de esos pensamientos. |
Las implicaciones económicas de este cambio de infraestructura no tienen precedentes. El entrenamiento de los modelos de IA más avanzados requería recursos computacionales medidos en miles de GPU-año (un trabajo que un solo chip tardaría miles de años en completar), pero que podía realizarse en semanas o meses si se distribuía en sistemas paralelos masivos. Witt señala que esto hizo que la barrera de entrada para desarrollar sistemas de IA de última generación fuera tan alta que solo las mayores empresas tecnológicas podían competir: Empresas como Microsoft, Google y Amazon se enzarzaron en una carrera armamentística por la capacidad computacional, gastando miles de millones en hardware de Nvidia para construir fábricas de IA cada vez mayores y mantener su ventaja competitiva.
(Nota breve: aunque la computación paralela permite a cada GPU manejar miles de cálculos simultáneamente, el escalado masivo de la potencia de cálculo que describe Witt sólo fue posible con la computación distribuidacoordinación de miles de GPU para entrenar un único modelo de IA. Para entrenar un LLM es necesario procesar miles de millones de ejemplos de texto y ajustar millones de parámetros internos que determinan la respuesta del modelo: una tarea tan ingente que a un solo ordenador le llevaría miles de años, pero que sólo requiere semanas cuando se distribuye entre miles de GPU. Esta coordinación plantea grandes retos, que Nvidia ha resuelto con hardware y software de red especializados para optimizar la forma en que las GPU comparten la información).
Nvidia ganó ventaja al ser uno de los primeros innovadores, ofrecer el software que preferían los desarrolladores y producir grandes volúmenes de GPU de forma más fiable que sus competidores. Esta ventaja propició su adopción generalizada en diversos sectores, incluida la automoción, donde los chips Nvidia se convirtieron en la opción preferida para procesar las imágenes de los sensores de los sistemas de asistencia al conductor.
| Este no es el primer giro de Nvidia En 1993, Jensen Huang, Curtis Priem y Chris Malachowsky fundaron Nvidia, reconociendo el futuro potencial de los procesadores gráficos en los juegos de PC. Como relata Tae Kim en su libro El camino de Nvidiaaunque los fundadores confiaban en que su innovadora tecnología atraería a los jugadores y superaría los estándares del sector, los primeros años de Nvidia estuvieron marcados por importantes retos e inestabilidad. Las primeras aventuras de la empresa resultaron problemáticas. Sus dos primeros modelos de chips no lograron imponerse y una costosa inversión de 15 millones de dólares en el desarrollo de un chip fallido puso a Nvidia al borde del colapso. A pocas semanas de alcanzar un punto de no retorno, los fundadores tomaron medidas decisivas, incluida la reducción de personal, para mantener la empresa a flote. Otro contratiempo llegó cuando el chip NV2, destinado a la próxima videoconsola de Sega, se canceló a mitad de su desarrollo, con lo que sólo obtuvieron un millón de dólares por sus esfuerzos. Según Kim, el punto de inflexión de Nvidia llegó con su decisión de innovar en una nueva dirección. Desarrollaron el RIVA 128, con el objetivo de crear el chip gráfico más rápido del mercado. Este proyecto era más complejo que sus predecesores y requería una mayor capacidad de fabricación. A pesar de la premura de tiempo -necesitaban completar en nueve meses lo que normalmente llevaba dos años-, Nvidia tuvo éxito al cambiar su estrategia. En lugar de buscar tecnología propia, se centraron en crear un producto versátil que fuera compatible con los principales juegos y mantuviera la retrocompatibilidad. |
En los últimos años, Nvidia ha ampliado su influencia mediante colaboraciones estratégicas con los principales fabricantes de ordenadores y proveedores de servicios en la nube. Estas colaboraciones han mejorado el atractivo de sus plataformas de IA y atraído a más desarrolladores y clientes, consolidando aún más la posición de liderazgo de Nvidia.
Innovar y dominar el mercado
La innovación de Nvidia va mucho más allá de los chips de IA, lo que demuestra la capacidad de adaptación de la empresa a múltiples tecnologías de vanguardia.
- Supercomputación. Los chips de Nvidia procesan ingentes cantidades de datos para sistemas informáticos avanzados. Meta utiliza estas capacidades para entrenar complejos modelos de IA; Tesla para impulsar el desarrollo de un superordenador centrado en la IA para mejorar la automatización de vehículos.
- Juegos. GPU como la GeForce RTX 4070 permiten disfrutar de juegos más rápidos y de mayor resolución, algo fundamental a medida que el sector se desplaza de las consolas a las plataformas basadas en la nube.
- Metaverso y realidad ampliada. La plataforma Omniverse y las herramientas de modelado 3D de Nvidia están impulsando el metaverso y la realidad extendida (XR), satisfaciendo las crecientes necesidades de entornos de formación virtual y otras aplicaciones.
- Minería de criptomonedas. Las tarjetas gráficas de Nvidia, cruciales para la minería de criptomonedas de alto consumo energético, han visto aumentar su demanda a medida que los tokens digitales ganan popularidad.
Retos para el crecimiento continuado de Nvidia
A pesar de su actual dominio del mercado, el crecimiento de Nvidia y su posición en el mercado en el futuro se enfrentan a varios retos importantes:
- Competencia creciente. Gigantes tecnológicos como Intel, AMD, Meta, Google, Microsoft y Amazon están desarrollando sus propios chips, lo que podría poner en peligro la cuota de mercado del 80% de Nvidia. A medida que la industria evoluciona, las empresas que buscan evitar la dependencia de un único proveedor pueden recurrir a estos competidores, erosionando el dominio de Nvidia.
- Costes elevados y problemas en la cadena de suministro. Los caros chips de gama alta de Nvidia y los largos tiempos de espera podrían empujar a los clientes a considerar alternativas, una debilidad que los competidores podrían explotar.
- Posible escasez de chips. A pesar de la Ley CHIPS y de Ciencia de 2022, destinada a impulsar la producción de chips en EE.UU., la oferta podría seguir siendo inferior a la creciente demanda de chips de Nvidia.
- Cuestiones reglamentarias y comerciales. Las nuevas normativas en el mercado de la IA generativa y las restricciones comerciales de EE. UU. a China podrían obstaculizar las operaciones y ventas de Nvidia.
El camino por recorrer
Nvidia sigue siendo una fuerza dominante en la IA, y sus procesadores son fundamentales en muchos centros de datos. Esto posiciona a la empresa para beneficiarse del crecimiento del mercado de chips de IA.
Sin embargo, los expertos advierten de que el panorama está cambiando. A medida que se intensifica la competencia, Nvidia puede enfrentarse a nuevos competidores que ofrezcan tecnologías innovadoras y versátiles que funcionen en distintos tipos de hardware. Esto podría amenazar el modelo de Nvidia, que depende en gran medida de su software CUDA, diseñado exclusivamente para sus GPU.
Además, aunque sobresale en el entrenamiento de modelos de IA, Nvidia va a la zaga en tareas de inferencia, utilizadas para entrenar modelos de IA para decisiones o predicciones en tiempo real. Si la competencia desarrolla chips más rápidos para estas aplicaciones, Nvidia podría perder cuota de mercado en esta área crucial.
En última instancia, la capacidad de innovación y adaptación de Nvidia determinará si puede mantener su posición de liderazgo.
PREGUNTAS FRECUENTES
¿Qué hizo que Nvidia tuviera tanto éxito en sus primeros años?
Tras los primeros fracasos de sus productos, Nvidia dio un gran paso adelante con el chip RIVA 128, su primer gran éxito, gracias a un cambio estratégico hacia la versatilidad y la compatibilidad con versiones anteriores.
¿Qué papel desempeñó el avance de AlexNet en el éxito de Nvidia?
El proyecto AlexNet de 2012 demostró que las GPU de Nvidia podían acelerar drásticamente el entrenamiento de redes neuronales, lo que validó la decisión de Jensen Huang de orientar la compañía hacia la IA.
¿Cómo pasó Nvidia de los juegos a la inteligencia artificial?
Nvidia reutilizó sus unidades de procesamiento gráfico (GPU), creadas originalmente para juegos, para manejar los complejos cálculos necesarios para la IA y el aprendizaje automático.
¿Qué son las "fábricas de IA" y cómo las utiliza Nvidia?
Las fábricas de IA son centros de datos especializados construidos para entrenar y ejecutar sistemas de IA. Representan un nuevo modelo industrial en el que los datos son la materia prima y la inteligencia el resultado, impulsado en gran medida por el hardware de Nvidia.
¿Cómo contribuyen los transformadores al éxito de Nvidia?
Los transformadores, que procesan simultáneamente todas las palabras de un texto, dependen en gran medida del procesamiento paralelo -perfectamente adaptado a las GPU de Nvidia-, lo que ha impulsado el crecimiento explosivo de los grandes modelos lingüísticos y el negocio de Nvidia.
¿En qué otros sectores domina Nvidia?
La tecnología de Nvidia impulsa avances en supercomputación, juegos, el metaverso y la minería de criptomonedas.
¿A qué grandes retos se enfrenta Nvidia?
Los mayores obstáculos para Nvidia son la creciente competencia de las empresas que desarrollan sus propios chips, los elevados costes de producción, la posible escasez de chips y las nuevas restricciones normativas y comerciales.
Más información sobre el crecimiento de Nvidia en el sector de la IA
Para comprender mejor el crecimiento de Nvidia y su contexto más amplio, consulta las guías de Shortform y los artículos a los que hemos hecho referencia en este artículo: