Tú preocupándote por ChatGPT, mientras tu nevera consume más

lalalatvla maquina, revista 1 Comment

Imagínalo. Estás sentado frente a la pantalla, listo para preguntarle a ChatGPT cuánto consume ChatGPT. Inevitablemente, te llega la respuesta: una consulta media consume unos 0,3 Wh. Y aquí es donde debería estallar la indignación. «¡La IA está devorando el planeta!» Pero espera… tu bombilla LED del escritorio ha gastado más electricidad en el tiempo que tardaste en leer esta línea.

En octubre de 2023, Alex de Vries encendió las alarmas: una consulta en ChatGPT podría gastar 3 Wh, diez veces más que una búsqueda en Google. La idea de millones de personas chateando con una inteligencia artificial mientras se consume energía como si no hubiera un mañana sonaba apocalíptica. ¿Un agujero negro de electricidad devorando nuestro futuro?

Pero la realidad es menos cinematográfica. Un estudio reciente de Epoch AI estima que ChatGPT consume diez veces menos de lo que se creía. Es decir, 0,3 Wh por consulta. Para ponerlo en perspectiva: si usas este chatbot de manera intensiva durante una hora, habrás gastado menos electricidad que la que tu nevera usa en el mismo tiempo.

Los villanos de siempre

Mientras tanto, los centros de datos crecen como hongos. En 2030, el consumo energético de la IA podría triplicarse. El problema no es que ChatGPT responda tu duda existencial sobre los pingüinos en Marte, sino la infraestructura que gigantes como OpenAI, Google y Microsoft están construyendo para sostener la fiebre del oro de la inteligencia artificial. Porque entrenar un modelo como GPT-4o requiere la energía de 20.000 hogares en EE.UU. durante tres meses.

La IA es un devorador de datos. Pero antes de indignarte por su huella energética, tal vez deberías preguntarte cuánta electricidad quemas en cada scroll infinito en Instagram, en cada «Me gusta» que dejas en TikTok o en cada episodio de Netflix que maratoneas sin pensar.

Pensar consume más (literalmente)

Si estás usando ChatGPT, probablemente sea porque estás razonando, creando, investigando. Y eso, curiosamente, gasta menos energía que el entretenimiento pasivo. Modelos más complejos, como los diseñados para razonamiento profundo, sí requieren más recursos, pero de momento son minoritarios.

El problema no es preguntar a ChatGPT. El problema es no preguntarnos nada en absoluto.

Si queremos hablar de consumo energético, hagámoslo en serio. No se trata de si una IA usa un poco más de electricidad que una búsqueda en Google. Se trata de que la infraestructura digital que hemos creado consume una cantidad obscena de energía y apenas nos detenemos a pensar en ello.

Pero claro, es más fácil señalar al robot que revisar nuestro propio reflejo en la pantalla.

Así que dime, ¿seguirás culpando a ChatGPT, o empezarás a cuestionar el mundo hiperconectado en el que vivimos?

Autor: X Mae
Fuente: Xataka
Imagen destacada: Dall-E

¡Te gustó lo que leíste? 🎉 ¡Suscríbete a nuestro newsletter y recibe lo mejor de lalalatv directo en tu bandeja! Sé el primero en enterarte de lo más nuevo y emocionante. ¡Es fácil y gratis! 😎📬
×

Suscríbete a nuestro boletín.


Comments 1

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *