Por Max Vásquez
Editor@latinocc.com
La inteligencia artificial (IA) ha irrumpido en la vida cotidiana en un tiempo récord.
Desde que OpenAI lanzó ChatGPT en noviembre de 2022, el uso de estas plataformas se disparó a nivel mundial, colocándolas entre los sitios más visitados de internet.
Sin embargo, detrás de cada respuesta generada por un chatbot hay un costo energético real que empieza a preocupar, especialmente en lugares como California, un estado que ya vive bajo presión constante en materia de energía y medio ambiente.
Google ofreció recientemente un dato de referencia sobre su modelo Gemini.
Según Savannah Goodman, directora de los Laboratorios de Energía Avanzados de la compañía, “un mensaje de texto medio de Gemini utiliza 0.24 vatios por hora de energía, equivalente a ver la televisión durante menos de nueve segundos”.
A primera vista parece insignificante, pero la magnitud de miles de millones de consultas diarias cambia radicalmente la ecuación.
CENTROS DE DATOS Y LA DEMANDA EN CALIFORNIA

Cada vez que alguien escribe una pregunta a la IA, se activan gigantescos centros de datos que procesan la información.
Estos edificios, repartidos en distintas zonas de Estados Unidos, requieren electricidad constante.
El Laboratorio Nacional Lawrence Berkeley (LBNL), con sede en California, calcula que la IA representa ya un 4.4% de toda la demanda eléctrica nacional y anticipa que, para 2028, más de la mitad de la energía de los centros de datos se destinará exclusivamente a estas tecnologías.
En un estado como California, donde la red eléctrica enfrenta apagones ocasionales en verano y una transición acelerada hacia fuentes renovables, la pregunta es inevitable: ¿puede la infraestructura actual sostener el ritmo de crecimiento de la IA?
De acuerdo con el LBNL, la electricidad que requerirán los centros de datos equivaldría al 22% de toda la demanda doméstica del país. Para regiones como el Área de la Bahía o Silicon Valley, donde se concentran empresas tecnológicas, este reto es especialmente sensible.
EL CRECIMIENTO EXPONENCIAL DE LOS MODELOS
La demanda se explica en parte por el tamaño de los modelos. Parthasarathy Ranganathan, vicepresidente de Google y jefe de centros de datos, detalló que los modelos Gemini “han pasado de millones de parámetros a billones, duplicándose cada tres meses y medio”.
Ese crecimiento implica multiplicar por diez la capacidad de cómputo cada año.
A eso se suma la avalancha de interacciones.
Una sola consulta puede requerir 0.24 a 0.30 vatios por hora, pero multiplicado por miles de millones de preguntas diarias, el consumo se dispara.
Según cálculos de especialistas, mil millones de consultas al día durante un año representarían 109 gigavatios-hora de electricidad, energía suficiente para abastecer a más de 10,500 hogares de la Costa Central durante todo un año.
EL COSTO AMBIENTAL Y LA COMPARACIÓN CON LA VIDA DIARIA
Por su parte, otro estudio de MIT Technology Review estimó que una sesión promedio con IA —15 preguntas, 10 imágenes y un video corto— consume 2.9 kilovatios-hora.
Esa cantidad equivale al gasto de una bicicleta eléctrica para recorrer 150 kilómetros o al uso de un microondas durante más de tres horas.
Más preocupante aún es el entrenamiento de los modelos.
Preparar GPT-4, por ejemplo, requirió 50 gigavatios-hora de electricidad, equivalente a abastecer ciudades del tamaño de Oakland o Ventura y Oxnard combinadas, durante varios días.
En un estado que lidera la lucha contra el cambio climático, estas cifras ponen sobre la mesa un dilema: ¿cómo mantener la innovación sin comprometer los objetivos ambientales de reducción de emisiones?
ENTRE EFICIENCIA Y RENTABILIDAD
Google asegura que está trabajando para reducir el impacto.
Goodman afirma que “en los últimos 12 meses hemos logrado reducir el consumo y la huella de carbono por consulta entre 33 y 44 veces”.
El modelo Gemini, según la compañía, toma en cuenta no solo el uso activo de las máquinas, sino también la memoria, el enfriamiento y la infraestructura inactiva.
Pero la eficiencia tiene un límite cuando el uso sigue creciendo.
Como señaló Esha Choukse, investigadora de Microsoft Azure, el negocio de la IA se centra en la “inferencia”, es decir, en cada interacción que los usuarios realizan.
Cuantas más consultas, más ingresos por suscripciones, API o integraciones. Y cuantas más interacciones, mayor consumo eléctrico.
ENERGÍA CONSTANTE Y EL DEBATE NUCLEAR
En California, donde se apuesta fuerte por la energía solar y eólica, otro desafío surge: la intermitencia.
A diferencia de otras plataformas, los centros de datos de IA necesitan electricidad constante las 24 horas del día.
De ahí que empresas como Microsoft y Meta hayan comenzado a explorar soluciones como el uso de energía nuclear.
El tema genera debate en un estado que ya tuvo conflictos con el cierre y reapertura de la planta nuclear de Diablo Canyon, ubicada en San Luis Obispo.
Para algunos expertos, la nuclear es la única opción que garantiza continuidad en el suministro; para otros, es una contradicción en los planes verdes de California.
TRANSPARENCIA: EL GRAN RETO
A pesar de los avances, los especialistas coinciden en un punto: la falta de transparencia.
Boris Gamazaychikov, jefe de sostenibilidad de IA en Salesforce, lo definió como una “caja negra total”.
Por su parte, Sasha Luccioni, investigadora de IA y clima en Hugging Face, va más allá:
“Hay que presionar a las empresas para que publiquen datos reales y verificables”.
En este contexto, Google dio un primer paso con Gemini, aunque reconoce que no es un modelo definitivo.
Sus cifras, sin embargo, coinciden con las estimaciones de Epoch AI, que sitúan en 0.3 vatios por hora el consumo de una consulta de ChatGPT.
UN RETO PARA SILICON VALLEY Y TOD@S
La inteligencia artificial no es solo una herramienta tecnológica; es también un desafío energético que toca de lleno a California, cuna de Silicon Valley y de las mayores empresas de innovación del planeta.
El estado que lidera la transición hacia energías limpias ahora enfrenta la paradoja de albergar la industria más demandante en términos eléctricos.
El futuro de la IA en California dependerá de cómo se resuelvan estas tensiones entre innovación y sostenibilidad.
Lo que está claro es que cada pregunta hecha a un chatbot tiene un costo que va más allá de la pantalla: afecta a la red eléctrica, al medio ambiente y al modelo energético de un estado que ya vive bajo la lupa del cambio climático.
