¿Debemos usar la inteligencia artificial en educación? Una crítica más allá de la utilidad


El debate sobre la inteligencia artificial (IA) en los entornos educativos se ha enfocado, casi exclusivamente, en sus beneficios y peligros prácticos: si ayuda o perjudica, si potencia el aprendizaje o lo debilita. Pero este enfoque instrumental omite una pregunta más profunda, casi silenciada: ¿qué significa realmente usar inteligencia artificial en el proceso educativo?

No basta con comparar la IA con otras herramientas como calculadoras o computadores. Estas, por muy sofisticadas que sean, actúan como extensiones de nuestro cuerpo o de nuestras capacidades perceptivas, sin sustituirlas. Una pala extiende el brazo, unas gafas corrigen la vista, una hoja de cálculo organiza nuestros datos. Todas ellas dependen del usuario y remiten a su acción directa.

Pero la inteligencia artificial representa otra cosa. No solo amplifica nuestras acciones, sino que comienza a simular aspectos centrales de nuestra mente: el lenguaje, la decisión, la interpretación, incluso la creatividad. Por ello, plantearla como una herramienta más resulta conceptualmente pobre. No estamos simplemente usando la IA; estamos interactuando con una simulación de nuestros propios procesos mentales.

Esta simulación no es trivial. No es una prolongación, sino una especie de espejo funcional: opera como nosotros, sin ser nosotros. Y eso exige que repensemos su estatuto: ¿Es una herramienta? ¿Es una forma de inteligencia? ¿Qué tipo de relación estamos estableciendo con ella?

Si llamamos “inteligencia artificial” a algo que realiza funciones similares a las humanas, debemos ser cuidadosos. Lo “artificial” no debe entenderse como lo opuesto a lo “natural”, sino como lo creado por medio de la técnica para reproducir capacidades que antes solo atribuíamos a los humanos. Y aquí surge una tensión: ¿estamos utilizando IA para pensar mejor, o estamos delegando nuestro pensar a una entidad que solo simula hacerlo?

Nuestra propia inteligencia no es “natural” en sentido puro. Es el resultado de un proceso biológico-cultural, histórico y social. Pero justamente por eso, está sujeta a errores, dudas, revisiones, emociones y cuerpo. Pensar no es solo razonar, es también equivocarse, cambiar de opinión, aprender con lentitud, dudar. Si confiamos demasiado en sistemas que producen respuestas sin vivir esos procesos, corremos el riesgo de empobrecer nuestra relación con el conocimiento.

No se trata de rechazar la IA por temor o nostalgia. Se trata de comprender su naturaleza como simulación funcional. A diferencia de los humanos, los sistemas de IA no poseen biología, historia, ni subjetividad. Responden, pero no comprenden como nosotros. Aprenden patrones, pero no sentido. Operan sin cuerpo, sin experiencia.

Por ello, debemos evitar que el uso de la IA en la educación sustituya el proceso humano de aprender, con su esfuerzo, su incertidumbre y su lentitud. El verdadero aprendizaje no se trata solo de obtener respuestas, sino de formar criterio, juicio, autonomía y sentido del error.

Usar IA sin esta reflexión puede llevar a que los estudiantes aprendan a pensar por medio de estructuras que simulan el pensamiento sin compartir su fundamento humano. El riesgo no está en usar la tecnología, sino en dejar de preguntarnos por lo que ella desplaza cuando se convierte en costumbre.

En lugar de prohibir o idealizar la IA, necesitamos formar estudiantes capaces de entender sus límites, interpretar sus resultados, y discernir cuándo usarla y cuándo no. Porque si bien puede asistirnos, nunca podrá reemplazar el modo humano de comprender, fallar, y crecer.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *