top of page

El uso ético de la inteligencia artificial en la investigación académica.

La inteligencia artificial (IA) está redefiniendo la forma en la que concebimos el conocimiento. Sus capacidades para organizar información, identificar patrones, resumir textos y asistir en tareas complejas están facilitando procesos dentro de la investigación académica. Sin embargo, este acceso sin precedentes también abre una serie de dilemas éticos: ¿cuál es el rol del investigador si una IA redacta parte de un estudio?, ¿cómo se asegura la transparencia y trazabilidad en los resultados?, ¿qué impactos tiene el uso excesivo de IA en el ambiente y en la autoría académica? Estas preguntas no son hipotéticas: son reales, urgentes y requieren respuestas colectivas.

Creado con DALL·E (OpenAI)
Creado con DALL·E (OpenAI)

Ética y gobernanza: la guía de la UNESCO.


Para enfrentar estos desafíos, la UNESCO publicó en 2021 su Recomendación sobre la Ética de la Inteligencia Artificial, la primera herramienta de gobernanza mundial en su tipo¹. Este documento plantea principios como la centralidad de los derechos humanos, la equidad, la inclusión y el respeto ambiental como pilares esenciales para el desarrollo de la IA. A diferencia de posturas puramente tecnológicas, la UNESCO hace énfasis en el rol de los Estados, la educación y la cultura para garantizar un uso ético. En el campo académico, esto implica diseñar políticas claras sobre el uso de IA, capacitar a estudiantes e investigadores en pensamiento crítico digital y evitar la dependencia ciega de modelos automatizados para generar conocimiento.

Creado con DALL·E (OpenAI)
Creado con DALL·E (OpenAI)

Agua, energía y procesamiento: el costo ambiental de la IA.


Uno de los costos más invisibles del avance de la IA es su impacto ambiental. Según investigadores de la Universidad de California Riverside, entrenar modelos como GPT-3 puede consumir hasta 700,000 litros de agua³, debido al enfriamiento necesario de los servidores. A esto se suma el gasto energético constante que implica mantenerlos operativos y responder en tiempo real a millones de usuarios. El caso se vuelve aún más preocupante cuando se analiza el uso de IA para fines recreativos o triviales. Por ejemplo, se estima que generar un millón de imágenes con IA —algo común en redes sociales cuando se populariza un estilo— puede requerir más de 40,000 litros de agua². Estos datos nos obligan a repensar el impacto real del uso cotidiano de herramientas como ChatGPT o DALL·E, que si bien son útiles, también generan una huella ecológica significativa.

Creado con DALL·E (OpenAI)
Creado con DALL·E (OpenAI)

Cultura viral, saturación y colapso: el caso Ghibli.


En marzo de 2025, OpenAI lanzó una función en ChatGPT para generar imágenes al estilo Studio Ghibli. Lo que comenzó como una novedad creativa se convirtió rápidamente en una fiebre global. Usuarios de todo el mundo comenzaron a pedir imágenes con prompts cada vez más detallados y masivos: desde dragones con estética japonesa hasta mascotas animadas al estilo Totoro. La viralidad fue tan extrema que los servidores colapsaron. Sam Altman, CEO de OpenAI, publicó en su cuenta oficial de X: "Can y’all please chill on generating images? This is insane. Our team needs sleep" ⁴. La frase no fue retórica. Técnicos y desarrolladores de la empresa reportaron sobrecarga operativa y dificultad para sostener la demanda.

Creado con DALL·E (OpenAI)
Creado con DALL·E (OpenAI)

Este episodio no solo reflejó el poder de la viralización, sino también los límites éticos de la experiencia digital. Cuando el entretenimiento digital empieza a poner en riesgo la estabilidad tecnológica, el consumo responsable se vuelve más que un consejo: una necesidad urgente. El caso Ghibli se convierte así en un llamado de atención. No basta con maravillarse ante lo que la IA puede hacer; también debemos preguntarnos a qué costo lo hace, y si estamos dispuestos a asumirlo.

Creado con DALL·E (OpenAI)
Creado con DALL·E (OpenAI)

Responsabilidad compartida en el uso académico de la IA.


En el ámbito académico, la IA puede optimizar procesos de investigación, mejorar la productividad y abrir nuevas formas de análisis. Pero también puede deformar los fines si no se gestiona adecuadamente. Desde estudiantes que usan IA para redactar ensayos sin declarar su uso, hasta investigadores que dependen de algoritmos sin verificar fuentes, los riesgos están presentes. Por eso, las instituciones deben liderar con una ética proactiva: fomentar la transparencia, exigir declaración del uso de IA, capacitar en interpretación crítica de resultados automatizados y diseñar criterios claros sobre cuándo y cómo se justifica su uso. La tecnología debe estar al servicio del pensamiento, no reemplazarlo.

Referencias:
  1. UNESCO. (2021). Recomendación sobre la ética de la inteligencia artificial. https://unesdoc.unesco.org/ark:/48223/pf0000381137
  2. Keech, D. (2025, abril 6). 1M AI Images = Water for 2,000 People. Still Worth the Likes? OnFocus News. https://www.onfocus.news/1m-ai-images-water-for-2000-people-still-worth-the-likes/
  3. Ren, S., Li, P., Yang, J., & Islam, M. A. (2023). Making AI Less "Thirsty": Uncovering and Addressing the Secret Water Footprint of AI Models. University of California, Riverside. https://generative-ai-newsroom.com/the-often-overlooked-water-footprint-of-ai-models-46991e3094b6
  4. Altman, S. [@sama]. (2025, marzo 30). Can y’all please chill on generating images? This is insane. Our team needs sleep [Tweet]. X. https://x.com/sama/status/1906210479695126886

Autoría:

  • Renzo M. Bisso Torero (Gestión & Supervisión)
  • Candy K. Davalos Romero (Diagramación & Diseño)

"Nota: Este artículo fue generado por los autores con la asistencia de ChatGPT como herramienta de redacción de estilo y DALL-E 3 para la creación de las imágenes sin fuente. Asimismo, se usaron fotografías del banco de imágenes libre: freepik.es"
 
 
 

Comments


bottom of page