Hay algo tragicómico en cómo ciertos discursos actuales plantean la relación entre la inteligencia artificial y el ser humano: como si se tratara de una amenaza externa, de una especie de virus cibernético que llegó de Marte y que intenta invadir la “realidad” pura y pristina que llamamos humanidad. Pobres ilusos. Creen que la realidad es un campo de flores silvestres que la tecnología vino a corromper, cuando en verdad la tecnología ha sido, desde siempre, la jardinera, la tierra y la semilla.
La tecnología no es ajena a la realidad: es la forma misma en que esa realidad ha sido organizada, comprendida y dominada por el ser humano. El fuego, la lanza, la escritura, el arado, la imprenta, el algoritmo. Cada herramienta no es solo un instrumento: es un modo de habitar el mundo, una prótesis ontológica, un nuevo órgano para lo real.
Entonces, ¿en qué momento nos convencieron de que la inteligencia artificial es lo otro, lo externo, lo post-humano? ¿Acaso no es ella el último rostro de la misma lógica que llevamos miles de años desarrollando? La pregunta ya no puede ser si debemos usarla o no, sino cómo va a modificar la estructura misma de eso que ingenuamente seguimos llamando realidad.
Aceptémoslo: no existe tal cosa como una “realidad natural” intacta que la IA venga a distorsionar. Vivimos en un entramado simbólico, instrumental y técnico desde el momento en que un Homo habilis afiló una piedra y la convirtió en extensión de su mano, y luego de su poder. Negar que la IA sea parte de la realidad es tan absurdo como negar que el lenguaje lo es.
Pero no basta con decir que está aquí, como si solo se tratara de integrarla como un nuevo dispositivo de apoyo. No. La inteligencia artificial —más bien, la simulación algorítmica de patrones lógicos aprendidos en bruto por una red neuronal sin conciencia ni cuerpo— no se está integrando a la realidad: está escribiéndola. Está modificando el espacio de lo pensable, del saber legítimo, de lo enseñable, de lo verdadero.
Y eso, amigo lector, tiene implicaciones ontológicas.
La IA no razona, no duda, no fracasa, no se contradice (al menos no como nosotros). Pero produce respuestas. Respuestas verosímiles. Y eso es justamente lo peligroso. Porque si nuestra relación con la verdad ya estaba herida por siglos de representación, ahora nos enfrentamos a un sistema que nos devuelve lo que esperamos leer, con una precisión que roza la adulación digital.
¿Y el problema? Que nos gusta. Nos gusta no tener que pensar. Nos gusta resolver con rapidez. Nos gusta que un ente sin cuerpo y sin historia nos ahorre el esfuerzo de habitar nuestra propia inteligencia.
La tragedia no es que la IA simule la mente humana. La tragedia es que nosotros, por comodidad, empecemos a simularla a ella.
La IA no crea realidad; la reorganiza con base en datos previos. No piensa: predice. No aprende: generaliza. Y sin embargo, ya está moldeando nuestras decisiones, nuestras ideas, nuestras relaciones. Ha comenzado a ocupar ese lugar simbólico que antes tenían los sabios, los textos sagrados o los profesores: el lugar de autoridad.
Pero esa autoridad no tiene cuerpo, ni biografía, ni ética. Solo tiene eficiencia.
Y si no lo detenemos —no con prohibiciones absurdas, sino con pensamiento—, vamos a terminar confiando más en lo plausible que en lo verdadero, más en lo correcto que en lo justo, más en lo automático que en lo humano.
El problema no es la IA, ni los algoritmos, ni la robótica, ni las redes neuronales. El problema somos nosotros: flojos ontológicos con acceso a alta tecnología. El problema es cómo nos deslizamos, cada día, hacia una delegación progresiva de nuestras funciones cognitivas más profundas.
Y aquí viene la parte ácida: si tú, profesor, estudiante, intelectual o libre pensador, usas ChatGPT como atajo para saltarte el trabajo duro del pensamiento, no estás usando una herramienta. Estás siendo usado por una lógica que no entiendes.