La Tecnología de Nvidia y La Eficiencia Energética en la IA

El evento de desarrolladores GTC de Nvidia en San José, California, ha acaparado la atención en el mundo de la inteligencia artificial (IA). Esta conferencia, apodada el «Woodstock de la IA,» reunió a gigantes de la industria como Nvidia, OpenAI, xAI, Meta, Google y Microsoft, así como a ejecutivos de empresas importantes como L’Oréal, Lowe’s, Shell y Verizon, todos interesados en implementar la tecnología de IA.

Durante el evento, el CEO de Nvidia, Jensen Huang, presentó la última unidad de procesamiento gráfico (GPU) de la compañía, la GPU Blackwell. Este nuevo chip cuenta con impresionantes 208 mil millones de transistores, superando las capacidades de su predecesor, las GPUs H100, que tenían 80 mil millones de transistores. Las grandes chips de la GPU Blackwell ofrecen el doble de velocidad para entrenar modelos de IA y son cinco veces más rápidas para generar resultados a partir de modelos entrenados (conocido como inferencia). Además, Nvidia introdujo el potente «superchip» GB200, que incorpora dos GPUs Blackwell conectadas a su CPU Grace, superando las unidades existentes Grace Hopper MGX utilizadas en centros de datos.

Un aspecto destacado de la GPU Blackwell es su perfil energético, y Nvidia está aprovechando esto para su ventaja en la comercialización del chip. En el pasado, chips potentes consumían más energía, dando prioridad al rendimiento bruto sobre la eficiencia energética. Sin embargo, con la presentación de la GPU Blackwell, Huang destacó su mayor velocidad de procesamiento y resaltó el menor consumo de energía durante el entrenamiento en comparación con modelos anteriores. Entrenar modelos de IA ultra grandes utilizando 2,000 GPUs Blackwell requeriría 4 megavatios de potencia durante 90 días, en comparación con los 8,000 GPUs antiguas que consumirían 15 megavatios durante el mismo período de entrenamiento. Esta diferencia significativa en el consumo de energía aborda las preocupaciones sobre el costo monetario y la huella de carbono asociada con la tecnología de IA.

La atención en el consumo de energía es crucial ya que la creciente conciencia sobre los gastos y el impacto ambiental de la IA ha hecho que las empresas se muestren reacias a adoptar completamente la revolución de la IA generativa. Los proveedores de servicios en la nube, por ejemplo, cobran tarifas elevadas por el uso de GPUs, no solo para cubrir el costo de los chips en sí, sino también para hacer frente al consumo de energía y los requisitos de refrigeración de los centros de datos. Nvidia reconoce esta preocupación y busca aliviarla destacando la eficiencia energética de la Blackwell. Además, Nvidia señala que los expertos en IA han encontrado maneras de imitar el rendimiento de modelos más grandes e intensivos en energía como el GPT-4 con modelos más pequeños y menos consumidores de energía.

Aunque el consumo de energía de los centros de datos para la IA representa actualmente una pequeña fracción del consumo total de energía del mundo, las estimaciones sugieren que podría aumentar rápidamente en el futuro. Schneider Electric, por ejemplo, estima que la IA consume energía equivalente a la de Chipre anualmente. Según un experto de Microsoft, se espera que la implementación de Nvidia H100s solo consuma tanta energía como toda la ciudad de Phoenix para fines de este año.

Sin embargo, la preocupación sobre el consumo de energía de la IA en los centros de datos puede estar algo desviada. La mayoría de los centros de datos utilizados por los gigantes de la nube, donde se produce la mayor parte del procesamiento de IA, ahora se basan en energía renovable o en energía nuclear de bajo carbono. Al contratar grandes cantidades de energía renovable a precios fijos, estos gigantes de la nube han desempeñado un papel vital al alentar a las compañías de energía renovable a construir proyectos eólicos y solares. Esto ha dado como resultado una mayor disponibilidad de energía renovable para todos, beneficiando tanto a los proveedores en la nube como a la sostenibilidad de las fuentes de energía. Sin embargo, el consumo de agua necesario para la refrigeración de los centros de datos sigue siendo un área de preocupación para los esfuerzos de sostenibilidad.

Aunque muchos centros de datos funcionan de forma sostenible, algunas regiones pueden carecer de acceso a energía renovable. Si la IA continúa expandiéndose y los modelos de IA crecen, la demanda de energía renovable puede superar a las fuentes de bajo carbono incluso en los Estados Unidos y Europa. Esto está impulsando esfuerzos, como el interés de Microsoft en utilizar la IA para acelerar el proceso de aprobación de nuevas plantas de energía nuclear en los EE. UU.

El consumo de energía de la IA también destaca una de las muchas áreas donde los cerebros humanos superan a los artificiales que hemos creado. El cerebro humano consume aproximadamente 0.3 kilovatios-hora diariamente, principalmente a partir de la ingesta calórica, mientras que la GPU H100 promedio requiere alrededor de 10 kilovatios-hora diariamente. Para garantizar la adopción generalizada y sostenible de la IA sin dañar el planeta, las redes neuronales artificiales pueden necesitar operar con perfiles energéticos más cercanos a sus contrapartes biológicas.

La Agencia de Investigación y Invención Avanzada del Reino Unido (Aria), similar al DARPA del Departamento de Defensa de los Estados Unidos, tiene como objetivo abordar este desafío. Recientemente, Aria se comprometió con £42 millones ($53 millones) para financiar proyectos centrados en reducir la huella energética de las aplicaciones de IA en un factor de mil. Aria está considerando enfoques radicales para la construcción de chips informáticos, incluidos los que dependen de neuronas biológicas para la computación en lugar de transistores de silicio. Si bien el resultado sigue siendo incierto, la mera existencia del desafío de Aria y el énfasis de Nvidia en la eficiencia energética en la conferencia GTC señalan un creciente enfoque en reducir el consumo de energía de la IA y avanzar en prácticas sostenibles.

Preguntas Frecuentes

¿Qué es la conferencia GTC de Nvidia?
Nvidia’s GTC (GPU Technology Conference) es un evento destacado en el campo de la IA y el procesamiento gráfico, reuniendo a líderes de la industria, investigadores y desarrolladores para mostrar y debatir los últimos avances en tecnología de GPUs y aplicaciones de IA.

¿Qué es la GPU Blackwell?
La GPU Blackwell es la nueva unidad de procesamiento gráfico de Nvidia, que ofrece avances como 208 mil millones de transistores, lo que la hace más potente y rápida para entrenar modelos de IA y generar resultados a partir de modelos entrenados. También cuenta con una mayor eficiencia energética en comparación con modelos anteriores.

¿Por qué es importante la eficiencia energética en la IA?
La eficiencia energética en la IA es crucial para abordar las preocupaciones sobre el costo monetario y el impacto ambiental de la tecnología de IA. Al reducir el consumo de energía durante el entrenamiento y la inferencia de la IA, las empresas pueden aliviar los gastos y contribuir a los esfuerzos de sostenibilidad.

¿Cuál es el papel de la energía renovable en la IA?
Muchos centros de datos utilizados para el procesamiento de IA funcionan con energía renovable o con energía nuclear de bajo carbono. El compromiso de los proveedores de servicios en la nube con la energía renovable ha alentado a las empresas de energía renovable a desarrollar proyectos más grandes, aumentando la disponibilidad de energía renovable para todos.

¿Por qué es importante reducir el consumo de energía de la IA para la sostenibilidad?
A medida que la adopción de la IA crece y los modelos se vuelven más grandes, la demanda de energía, especialmente de energía renovable, puede superar la oferta. Al centrarse en la eficiencia energética y explorar enfoques alternativos para.

The source of the article is from the blog anexartiti.gr

Privacy policy
Contact