El otro riesgo del ChatGPT: el impacto medioambiental
Además de las consecuencias que puede generar esta herramienta en el mundo laboral, otro desafío es su implementación con un enfoque sustentable por la cantidad de recursos que demanda.

1 Ago, 2023

La inteligencia artificial (IA) se va a convertir, indiscutiblemente, en una parte fundamental de nuestras vidas. Por caso, en sólo 40 días ChatGPT alcanzó los diez millones de usuarios diarios. Mucho se habla de las consecuencias que generará en el mundo laboral, pero poco de las repercusiones en la naturaleza.

Un estudio que llevaron adelante en conjunto la Universidad de Colorado Riverside y la Universidad de Texas Arlington, con el objetivo de medir el impacto ambiental que genera esta tecnología para enfriar los sistemas con los que funciona, determinó que el ChatGPT necesita beberse medio litro de agua para tener una conversación. Es decir, una sesión con el chatbot, incluyendo entre 20 y 50 preguntas, equivale a tomar una botella de agua de 500 mililitros (ml).

Allí se encontró que para mantener activo el sistema de refrigeración de los servidores donde se hace el entrenamiento de la tecnología detrás de ChatGPT, se consumen cerca de 700.000 litros de agua dulce. Para dimensionar este consumo, los investigadores aseguran que con esa cantidad de agua se pudo haber fabricado en BMW alrededor de 370 autos y en Tesla, aproximadamente, 320.

Para la primera fase de entrenamiento de ChatGPT se utilizaron 1.287 megavatios por hora (MV/h), lo que equivale a 550 vuelos de ida y vuelta entre Nueva York y San Francisco.

Aunque podría parecer un tema secundario, no lo es. Según datos de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) difundidos en la Conferencia del Agua de la ONU 2023 que se realizó en Nueva York, a nivel mundial, actualmente 2.000 millones de personas (el 26% de la población global) no acceden a agua potable segura y 3.600 millones (el 46%) carecen de acceso a saneamiento.

En lo que se refiere a consumo energético, el escenario es similar. Un estudio en los Estados Unidos afirmó que para la primera fase de entrenamiento de la herramienta se utilizaron 1.287 megavatios por hora (MV/h), lo que equivale a 550 vuelos de ida y vuelta entre Nueva York y San Francisco, ciudades separadas por casi 4.500 kilómetros.

Advertencias de la comunidad científica

En este contexto, los especialistas advierten que esta tecnología presenta límites y riesgos para la población y los científicos hacen un llamado de atención a las empresas que promueven su uso para que asuman su “responsabilidad social” y “prediquen con el ejemplo, abordando su propia huella medioambiental”.

Al respecto, Laura Alonso Alemany, doctora en lingüística computacional, quien participó recientemente del Encuentro Latinoamericano de Inteligencia Artificial que se realizó en Montevideo (Uruguay) —donde se presentó una declaratoria para reclamar a gobiernos y empresas que mitiguen el impacto generado por la implementación de estas tecnologías— resaltó que parte de las preocupaciones de la comunidad especializada en el desarrollo de IA es que se contemplan los aspectos técnicos en la implementación de este modelo, pero no el impacto social que provoca.

La automatización y el empleo, los sesgos a partir de los algoritmos, la fiabilidad de la información, la privacidad y las asimetrías de poder entre los actores involucrados son parte de la conversación pública de las últimas semanas. A estos temas debemos sumarle el aspecto ambiental.» Iván Buffone, socio de Business & Sustainability.

“Hay un misticismo alrededor de la tecnología que nos hace pensar que todo lo que hace una máquina está bien. Y que si no está bien, no hay forma de cuestionarlo”, consideró Alemany, que es profesora hace más de 15 años de la licenciatura en Ciencias de Computación de la Universidad Nacional de Córdoba y miembro del equipo de Ética en IA de la organización Fundación Vía Libre.

En esa línea, sostuvo que la carta difundida con tono alarmista por representantes de la industria a nivel mundial para pausar temporalmente el entrenamiento de estos modelos es una manera de igualar a los diferentes competidores de la industria, pero que no es suficiente. “Se está pidiendo que se pause la investigación, pero no la aplicación. Lo que efectivamente puede hacer mal es la implementación de estos sistemas, no que se investiguen”, argumentó. “De hecho, que se investiguen debería ser positivo porque se entiende mejor cómo funcionan y sus posibles repercusiones”.

“Siempre se dijo que la IA llegaba para ser una aliada estratégica del desarrollo sostenible. Y no hay dudas de que así es”, destacó Iván Buffone, socio de Business & Sustainability, consultora especializada en sustentabilidad, con base en Buenos Aires.

“Sin embargo, la carrera por desarrollar robots cada vez más potentes no está exenta de riesgos y polémicas con respecto a su impacto en nuestras vidas. La automatización y el empleo, los sesgos a partir de los algoritmos, la fiabilidad de la información, la privacidad y las asimetrías de poder entre los actores involucrados son parte de la conversación pública de las últimas semanas. A estos temas debemos sumarle el aspecto ambiental, otro tópico que requiere ser abordado”, indicó Buffon.

Algunas empresas ya emprendieron el desafío de producir “tecnología sustentable”. Nodus Company, una firma que provee servicios a nivel global, desarrolla soluciones digitales atravesadas por la sustentabilidad, buscando mitigar su impacto a partir de la eficiencia desde el diseño. “La inversión en energías limpias y su utilización para acompañar el proceso de crecimiento de la tecnología constituyen el camino obligado a transitar para la sostenibilidad de este proceso”, destacaron desde esta empresa.

Laura Alonso Alemany, Iván Buffone
Share This