La ley de Moore y su evolución en IA
La Ley de Moore, formulada en 1965 por el cofundador de Intel, Gordon Moore, plantea que el número de transistores en un chip se duplica aproximadamente cada dos años. Esta proyección ha sido crucial para la evolución del poder computacional, ya que implica que el rendimiento de los dispositivos informáticos mejora sin un aumento significativo en costes. Pero, ¿qué significa esto para el futuro de la inteligencia artificial?
Para entender su impacto, es esencial saber que cuanto más transistores tenga un dispositivo, menor será el coste por unidad, al mismo tiempo que se incrementa el rendimiento. Esta relación es un motor fundamental que ha impulsado la innovación en el sector tecnológico, abriendo puertas a mejoras donde menos se esperaba.
Innovación acelerada: Nvidia a la cabeza
En este contexto, el CEO de Nvidia, Jensen Huang, ha declarado que los chips de inteligencia artificial de su empresa están «progresando mucho más rápido» que las previsiones de la Ley de Moore. Durante la feria tecnológica CES 2025, Huang destacó que la firma ha logrado avances significativos en la arquitectura de sus procesadores. En particular, el superchip GB200 NVL72 promete un rendimiento 30 veces superior para cargas de trabajo de inferencia en comparación con su predecesor, el chip H100.
¿Y cómo es esto posible? Huang explicó que hoy en día, Nvidia tiene la capacidad de desarrollar simultáneamente la arquitectura, el chip, el sistema, las bibliotecas y los algoritmos. Esto permite a la firma innovar de manera integral y acelerada. «Si hacemos eso, podemos avanzar más rápido que la Ley de Moore», afirmó Huang, señalando que los sistemas de inteligencia artificial están evolucionando a un ritmo autónomo.
Hacia una ley para la inteligencia artificial
Siguiendo esta línea de pensamiento, Huang ha propuesto la creación de una ley dedicada al avance de los sistemas de inteligencia artificial, que abarque tres etapas críticas: el preentrenamiento, el posentrenamiento y el cómputo en tiempo de prueba.
- Preentrenamiento: Esta es la fase inicial donde los modelos de IA aprenden a identificar patrones mediante el análisis de grandes volúmenes de datos.
- Posentrenamiento: Aquí, los modelos refinan sus respuestas a través de la retroalimentación humana, mejorando así su precisión.
- Cómputo en tiempo de prueba: Esta es la fase de inferencia en la que el modelo determina la respuesta adecuada a las consultas de los usuarios.
Este último aspecto es crucial, ya que permite al modelo de IA pensar de manera más detallada antes de ofrecer una respuesta. Sin embargo, es importante señalar que esta fase también conlleva los mayores costos al utilizar modelos de inteligencia artificial.
El CEO de Nvidia ha comparado esta evolución con la Ley de Moore, sugiriendo que así como esta última redujo los costos de computación, los avances en la inferencia también disminuirán los gastos asociados. «Lo mismo sucederá con la inferencia, donde aumentamos el rendimiento y, como resultado, el costo de la inferencia será menor», ha manifestado Huang.
Un futuro con IA superinteligente
Durante su intervención en el CES, Huang también habló sobre un futuro con «IA superinteligente» que transformará las tareas cotidianas. Según sus proyecciones, se espera que los usuarios accedan a servicios de inteligencia artificial que les ayudarán a escribir, analizar problemas, gestionar cadenas de suministro, e incluso a desarrollar software y diseñar chips.
Este avance también promete impulsar la robótica, un sector que se beneficiará de innovaciones como las que Nvidia ha desarrollado en su plataforma Omniverse y la nueva Cosmos World Foundation. Al hablar sobre los temores que pueden surgir respecto a la pérdida de control por parte de los humanos ante estos avances, Huang fue claro: «Las máquinas son máquinas», enfatizando que son los humanos quienes pueden utilizar esta tecnología de manera destructiva.
En el fondo, la esencia de la inteligencia artificial y la robótica se basa en un diseño que colabore con la humanidad. Huang subraya que la transformación digital no debe ser vista como una amenaza, sino como una oportunidad para optimizar y perfeccionar las tareas que realizamos diariamente.
El impacto de la inferencia en la economía
La promesa de un avance contundente en los modelos de IA también se refleja en iniciativas como la presentada por OpenAI, que han utilizado más capacidad de cómputo durante la inferencia para ofrecer respuestas más precisas. A medida que Nvidia continúa desarrollando chips de alto rendimiento como el GB200 NVL72, se espera que el coste de utilización de estas tecnologías se vuelva más accesible para todos.
El objetivo primordial es claro: desarrollar chips que incrementen el rendimiento de las tareas de inteligencia artificial y, como consecuencia, reducir los precios de su implementación en la vida diaria. Huang señala que «la solución directa e inmediata para mejorar la computación en tiempo de prueba, tanto en rendimiento como en coste, es aumentar nuestra capacidad de computación».
A medida que avanzamos en esta nueva era de la inteligencia artificial superinteligente, es evidente que la industria tecnológica tiene el potencial de transformar no solo el mercado, sino también nuestra forma de vivir y trabajar. En un mundo donde la IA y la robótica son cada vez más predominantes, entender cómo estos avances impactarán en nuestra economía y rutina diaria es una cuestión que vale la pena explorar. La evolución tecnológica que estamos presenciando hoy es solo un anticipo de lo que podría ser un futuro lleno de posibilidades asombrosas.