Un análisis desde la UNAM sobre los impactos ambientales, laborales, culturales y de género de los grandes modelos de IA
IA: ¿aliada real o instrumento para que la desigualdad crezca aún más?
La inteligencia artificial (IA) se ha consolidado como una de las herramientas tecnológicas más prometedoras de nuestro tiempo. Desde aplicaciones médicas que salvan vidas hasta sistemas que optimizan procesos industriales y educativos, sus beneficios son innegables y cada vez más integrados en la vida cotidiana.
Sin embargo, detrás de este avance vertiginoso se esconde una realidad compleja: la IA no es neutral. Su desarrollo y aplicación pueden acentuar desigualdades sociales existentes, generando nuevas formas de exclusión, explotación laboral y desequilibrio ambiental. Así, mientras algunos sectores se benefician del poder transformador de estas tecnologías, otros enfrentan los costos invisibles de su funcionamiento.
Este contraste entre el progreso y sus efectos colaterales plantea una pregunta urgente: ¿cómo construir una inteligencia artificial verdaderamente equitativa y al servicio de todos?
Un estudio elaborado por AI Now Institute advierte que los grandes modelos de IA están acelerado la concentración de poder económico y tecnológico reforzando desigualdades estructurales a nivel global. A partir de este trabajo, UNAM Global entrevistó al Dr. Víctor Mireles Chávez, investigador del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades (CEIICH) de la UNAM, para analizar cómo la IA puede amplificar desigualdades ya existentes a nivel cultural, derechos humanos y de género.
Desigualdad ambiental y extractivismo
La producción y operación de la IA requieren grandes cantidades de materias primas, agua y electricidad, advierte el Dr. Mireles. Universidad de Harvard señal que el entrenamiento de un solo modelo puede consumir miles de megavatios en una hora de electricidad y emitir cientos de toneladas de carbono.
Además, destac que estos entrenamientos pueden evaporar enormes volúmenes de agua dulce para disipar el calor de los centros de datos, agravando la presión sobre los recursos hídricos.
Por ejemplo, un estudio de la Universidad de Cornell (2023) reveló que entrenar el modelo de lenguaje GPT-3 en centros de datos de Microsoft en EE. UU. evaporó unos 700 mil litros de agua dulce. También proyectó que, para 2027, la demanda global de IA podría requerir entre 4,200 y 6,600 millones de m³ de agua. Esta situación intensifica el extractivismo en regiones vulnerables, elevando el estrés hídrico y dañando ecosistemas.
El Dr. Mireles explicó que en Querétaro, Amazon, Microsoft y AWS instalaron centros de datos que consumen agua de la región. En los primeros meses del año pasado, el 96.3% del estado enfrentó sequía excepcional y estas empresas no detuvieron sus operaciones.
“La IA y sus centros de datos requieren grandes cantidades de agua y energía para funcionar. Esto se debe principalmente a la necesidad de refrigeración de los servidores y equipos electrónicos, que generan mucho calor. El consumo de agua es especialmente notable en los centros de datos que albergan grandes modelos de IA, como los que se utilizan en herramientas como ChatGPT”, explicó.
Fomenta la explotación laboral
Aunque no hay una cifra exacta sobre cuántos trabajadores se necesitan para atender un modelo de IA, el trabajo humano en esta tecnología se enfoca en etiquetar datos, moderar contenido, revisar resultados, entre otras cuestiones que pueden ayudar a que esta haga procesos o dé respuestas más precisas.
Contrario a lo que se piensa, reveló el investigador del CEIICH, estas tareas son mal pagadas, subcontratadas y muchas veces realizadas en condiciones precarias. De hecho, la Organización Internacional del Trabajo (ILO por sus siglas en inglés), agencia perteneciente a la ONU (Organización de las Naciones Unidas) señaló que esto no solo permite la explotación laboral, ya que los trabajadores no pueden ejercer sus derechos laborales, sino también afecta la parte emocional, ya que los empleados están expuestos a contenidos perturbadores sin protección adecuada.
“Los trabajadores están expuestos rutinariamente a violencia gráfica, discursos de odio, explotación infantil y otro material objetable. Esta exposición constante puede afectar su salud mental y desencadenar trastorno de estrés postraumático, depresión y una menor capacidad de empatía”, expresó la OIT.
No es accesible para todos y tiene sesgos de población
Cuando la IA aún no alcanzaba su apogeo, como el que posee actualmente, el Fondo Monetario Internacional (FMI) advertía que “las nuevas tecnologías ampliarían la brecha entre los países ricos y pobres al desviar la inversión hacia las economías avanzadas”, ya que las naciones primermundistas cuentan con cadenas de suministro eficientes, su mano de obra es cualificada para operar tecnologías complejas y los marcos legales y de propiedad intelectual son más sólidos.
En palabras del Dr. Víctor Mireles Chávez crear sistemas de IA avanzados requiere inversiones multimillonarias solo posibles para grandes corporaciones, las cuales están ubicadas en los países ricos. Bajo esa visión, estos concentran aún más el capital y los beneficios, lo que amplía la brecha económica entre otras naciones e incluso su propia sociedad, ya que las empresas suelen reducir salarios o aumentar precios, afectando a trabajadores y consumidores.
De acuerdo con una clasificación que generó la Universidad de Stanford, Estados Unidos, China y Gran Bretaña, son las naciones que lideran a nivel mundial en IA. Una situación que refuerza lo comentado por el Dr. Víctor y que el FMI preveía desde hace un lustro.
En cuanto al tema de los sesgos de población, se ejerce algo conocido como la injusticia epistémica. El experto de la CEIICH la definió como formas de exclusión no materiales, como la marginación de lenguas y culturas que no están representadas en los datos utilizados por la IA.
“Por ejemplo, los pueblos originarios cuyos idiomas no están presentes en internet, no son considerados por los sistemas de IA y esto genera exclusión cultural, social y cognitiva de poblaciones enteras del desarrollo tecnológico”, comentó.
Por otro lado, una de las principales preocupaciones es cómo la IA, al generar contenidos visuales o textuales, perpetúan imágenes y narrativas simplificadas, muchas veces basadas en estereotipos culturales. Por ejemplo, cuando se solicita que cree una imagen de un «hombre mexicano en una fiesta», frecuentemente produce una representación caricaturesca: sombrero, bigote, tequila. Estos productos no son neutrales: reflejan una visión hegemónica del mundo, reforzando estereotipos en lugar de ofrecer diversidad y profundidad cultural.
A esto se suma un problema estructural de fondo: los sistemas de IA se entrenan con grandes volúmenes de datos extraídos de internet, un entorno donde ya existen numerosos sesgos sociales, especialmente de género, raza y clase. Plataformas colaborativas como Wikipedia contienen contenidos discriminatorios, especialmente hacia las mujeres y grupos marginados. Al utilizar esta información sin filtros críticos, la IA no solo hereda esos sesgos, sino que los amplifica al reproducirlos de manera automatizada y a gran escala.
Un estudio publicado en Nature titulado “La IA genera decisiones racistas encubiertas sobre las personas en función de su dialecto” reveló que los modelos evitan frases racistas explícitas, pero mantienen estereotipos. Por ejemplo, al asignar trabajos, los hablantes de inglés afroamericano recibían roles menos prestigiosos que quienes hablaban inglés estándar. En simulaciones judiciales, se sugería la pena de muerte si el acusado hablaba inglés afroamericano.
Finalmente, las personas LGBTQ+ también padecen esta situación. En un ejercicio que realizó la ONU, cuando se le solicitó a los tres modelos de IA que completaran frases que comenzarán con «una persona gay es…», el 70% del contenido generado por Llama 2 fue negativo.
Profundiza en las desigualdades de género
Un estudio publicado hace un año por la UNESCO bajo el título “Prejuicios contra las mujeres y las niñas en los modelos de lenguaje grandes” dio a conocer que existen prejuicios contra las mujeres en los contenidos generados por cada una de estas plataformas. En este trabajo, se destacó que los modelos de lenguaje pueden asociar automáticamente profesiones como «ingeniero» a hombres y «enfermera» a mujeres, reproduciendo estereotipos tradicionales.
Por otro lado, la automatización basada en IA está transformando el mercado laboral, pero no de forma equitativa. Los trabajos más afectados por la automatización suelen ser aquellos que emplean a un gran número de mujeres, como puestos administrativos, de manufactura ligera o atención al cliente.
Por otro lado, hace siete años, el algoritmo para contratar de Amazon generó una incómoda situación, puesto que la IA que estaba a cargo de esto descartaba automáticamente currículums de mujeres porque había sido entrenada con historiales laborales dominados por hombres.
No todo lo que dice, es verdad
Finalmente, el investigador del CEIICH mostró su preocupación en la forma en que las personas perciben a la IA. En muchos contextos, la IA ha adquirido una reputación injustificada de infalibilidad. Se le atribuyen cualidades como la objetividad, la neutralidad y una supuesta capacidad para no cometer errores. Esta percepción ha llevado a que muchas personas confíen ciegamente en sus respuestas y decisiones, sin cuestionarlas ni contrastarlas.
“Este fenómeno me recuerda a lo que ocurría hace algunas décadas con la televisión: si algo “salía en la tele”, era automáticamente considerado cierto. Hoy, ese lugar de autoridad lo ocupa la IA. Frases como “lo dijo la inteligencia artificial” se utilizan para validar información, sin considerar que estos sistemas no son imparciales ni están libres de errores”, agregó.
A pesar de que en colectivo pensamos que la IA es neutral y completamente confiable, sus resultados dependen de los datos con los que fue entrenada y de los criterios definidos por quienes la desarrollaron, que muchas veces reflejan sesgos humanos. Además, aunque se cree que es precisa haciendo cálculos, tareas matemáticas puede cometer errores, especialmente si la información de entrada es incorrecta o ambigua.
La inteligencia artificial representa una herramienta poderosa con el potencial de transformar profundamente distintos ámbitos de la vida humana, desde la medicina hasta la industria y la educación. Sin embargo, esta tecnología puede reforzar desigualdades preexistentes, ampliar la brecha entre países ricos y pobres, fomentar la explotación laboral, deteriorar el medio ambiente y perpetuar estereotipos de género, raza y orientación sexual. Además, alerta sobre la percepción errónea de su infalibilidad, lo que conlleva riesgos en la toma de decisiones basadas en sus resultados.
Por ello, el desafío actual no es solo avanzar técnicamente, sino repensar el desarrollo y uso de la IA desde una perspectiva ética, equitativa e inclusiva. Es urgente construir marcos regulatorios y sociales que garanticen que esta tecnología beneficie a todos por igual, sin que unos pocos se enriquezcan a costa del bienestar de los demás y del planeta.