El uso ético de la inteligencia artificial en la investigación académica.
- LA RUTA
- May 15
- 4 min read
La inteligencia artificial (IA) está redefiniendo la forma en la que concebimos el conocimiento. Sus capacidades para organizar información, identificar patrones, resumir textos y asistir en tareas complejas están facilitando procesos dentro de la investigación académica. Sin embargo, este acceso sin precedentes también abre una serie de dilemas éticos: ¿cuál es el rol del investigador si una IA redacta parte de un estudio?, ¿cómo se asegura la transparencia y trazabilidad en los resultados?, ¿qué impactos tiene el uso excesivo de IA en el ambiente y en la autoría académica? Estas preguntas no son hipotéticas: son reales, urgentes y requieren respuestas colectivas.

Ética y gobernanza: la guía de la UNESCO.
Para enfrentar estos desafíos, la UNESCO publicó en 2021 su Recomendación sobre la Ética de la Inteligencia Artificial, la primera herramienta de gobernanza mundial en su tipo¹. Este documento plantea principios como la centralidad de los derechos humanos, la equidad, la inclusión y el respeto ambiental como pilares esenciales para el desarrollo de la IA. A diferencia de posturas puramente tecnológicas, la UNESCO hace énfasis en el rol de los Estados, la educación y la cultura para garantizar un uso ético. En el campo académico, esto implica diseñar políticas claras sobre el uso de IA, capacitar a estudiantes e investigadores en pensamiento crítico digital y evitar la dependencia ciega de modelos automatizados para generar conocimiento.

Agua, energía y procesamiento: el costo ambiental de la IA.
Uno de los costos más invisibles del avance de la IA es su impacto ambiental. Según investigadores de la Universidad de California Riverside, entrenar modelos como GPT-3 puede consumir hasta 700,000 litros de agua³, debido al enfriamiento necesario de los servidores. A esto se suma el gasto energético constante que implica mantenerlos operativos y responder en tiempo real a millones de usuarios. El caso se vuelve aún más preocupante cuando se analiza el uso de IA para fines recreativos o triviales. Por ejemplo, se estima que generar un millón de imágenes con IA —algo común en redes sociales cuando se populariza un estilo— puede requerir más de 40,000 litros de agua². Estos datos nos obligan a repensar el impacto real del uso cotidiano de herramientas como ChatGPT o DALL·E, que si bien son útiles, también generan una huella ecológica significativa.

Cultura viral, saturación y colapso: el caso Ghibli.
En marzo de 2025, OpenAI lanzó una función en ChatGPT para generar imágenes al estilo Studio Ghibli. Lo que comenzó como una novedad creativa se convirtió rápidamente en una fiebre global. Usuarios de todo el mundo comenzaron a pedir imágenes con prompts cada vez más detallados y masivos: desde dragones con estética japonesa hasta mascotas animadas al estilo Totoro. La viralidad fue tan extrema que los servidores colapsaron. Sam Altman, CEO de OpenAI, publicó en su cuenta oficial de X: "Can y’all please chill on generating images? This is insane. Our team needs sleep" ⁴. La frase no fue retórica. Técnicos y desarrolladores de la empresa reportaron sobrecarga operativa y dificultad para sostener la demanda.

Este episodio no solo reflejó el poder de la viralización, sino también los límites éticos de la experiencia digital. Cuando el entretenimiento digital empieza a poner en riesgo la estabilidad tecnológica, el consumo responsable se vuelve más que un consejo: una necesidad urgente. El caso Ghibli se convierte así en un llamado de atención. No basta con maravillarse ante lo que la IA puede hacer; también debemos preguntarnos a qué costo lo hace, y si estamos dispuestos a asumirlo.

Responsabilidad compartida en el uso académico de la IA.
En el ámbito académico, la IA puede optimizar procesos de investigación, mejorar la productividad y abrir nuevas formas de análisis. Pero también puede deformar los fines si no se gestiona adecuadamente. Desde estudiantes que usan IA para redactar ensayos sin declarar su uso, hasta investigadores que dependen de algoritmos sin verificar fuentes, los riesgos están presentes. Por eso, las instituciones deben liderar con una ética proactiva: fomentar la transparencia, exigir declaración del uso de IA, capacitar en interpretación crítica de resultados automatizados y diseñar criterios claros sobre cuándo y cómo se justifica su uso. La tecnología debe estar al servicio del pensamiento, no reemplazarlo.
Referencias:
UNESCO. (2021). Recomendación sobre la ética de la inteligencia artificial. https://unesdoc.unesco.org/ark:/48223/pf0000381137
Keech, D. (2025, abril 6). 1M AI Images = Water for 2,000 People. Still Worth the Likes? OnFocus News. https://www.onfocus.news/1m-ai-images-water-for-2000-people-still-worth-the-likes/
Ren, S., Li, P., Yang, J., & Islam, M. A. (2023). Making AI Less "Thirsty": Uncovering and Addressing the Secret Water Footprint of AI Models. University of California, Riverside. https://generative-ai-newsroom.com/the-often-overlooked-water-footprint-of-ai-models-46991e3094b6
Altman, S. [@sama]. (2025, marzo 30). Can y’all please chill on generating images? This is insane. Our team needs sleep [Tweet]. X. https://x.com/sama/status/1906210479695126886
Autoría:
Renzo M. Bisso Torero (Gestión & Supervisión)
Candy K. Davalos Romero (Diagramación & Diseño)
Comments