No asistimos a un debate tecnológico, sino a una pugna por el control de la mediación intelectual. Conviene decirlo desde el principio para evitar equívocos. La inteligencia artificial no irrumpe en el espacio público como una ideología ni como un actor político, sino como una herramienta cognitiva que altera un equilibrio largamente asentado: quién filtra, jerarquiza y legitima el conocimiento. (...)
...
La preocupación institucional que hoy se expresa en forma de advertencias, alarmas y llamadas a la regulación no es del todo infundada. Toda tecnología potente requiere límites. El problema aparece cuando esos límites se formulan desde una desconfianza estructural hacia el ciudadano y no desde la defensa de su autonomía.
En ese desplazamiento se produce un giro importante: la IA deja de ser un instrumento que amplía capacidades y pasa a ser un riesgo que exige tutela. El usuario ya no es un sujeto responsable, sino un menor cognitivo al que hay que proteger de preguntas incómodas, razonamientos complejos o conclusiones no homologadas.
El resultado es una paradoja inquietante. En nombre de la democracia, se empieza a cuestionar la posibilidad misma de pensar sin intermediarios. En nombre de la verdad, se normaliza la censura preventiva. Y en nombre del bien común, se refuerzan mecanismos de control que siempre acaban concentrándose en pocas manos.
La pregunta de fondo no es si la inteligencia artificial debe ser regulada. Esa discusión es necesaria y legítima. La pregunta decisiva es quién define los límites de lo pensable cuando el ciudadano dispone, por primera vez, de una herramienta capaz de dialogar con él fuera de los canales tradicionales. Ahí se sitúa el verdadero conflicto de nuestro tiempo.
El ciudadano como menor de edad cognitivo
Hay una idea que atraviesa silenciosamente buena parte del discurso institucional contemporáneo sobre la inteligencia artificial: el ciudadano no está preparado para gestionar una herramienta cognitiva potente sin supervisión. No suele formularse así, pero se deduce de cada advertencia, de cada llamamiento a la tutela, de cada propuesta de alineamiento obligatorio.
El argumento es antiguo. Siempre que una tecnología ha ampliado la capacidad individual de acceder, procesar o difundir conocimiento, el poder ha reaccionado apelando a la protección. Proteger al pueblo de los excesos, de los errores, de la confusión. Protegerlo, en definitiva, de sí mismo. Hoy esa lógica reaparece envuelta en un lenguaje tecnocrático. Se habla de seguridad, de responsabilidad, de ética algorítmica. Pero el efecto práctico es el mismo: desplazar la decisión desde el usuario hacia una instancia superior que determina qué es aceptable pensar, preguntar o explorar.
La inteligencia artificial introduce una novedad radical en esta historia. No emite mensajes unidireccionales ni sustituye a los medios tradicionales. Dialoga. Aprende del interlocutor. Se adapta a su estilo de razonamiento. Esa personalización convierte a la IA en un espacio privado de elaboración intelectual, algo sin precedentes en la historia de la comunicación. Precisamente por eso resulta tan incómoda. Un ciudadano que dialoga durante meses con una IA personalizada compara fuentes, detecta contradicciones y construye criterio al margen de los relatos dominantes. No consume discurso: lo procesa.
La respuesta institucional no ha sido potenciar esa autonomía, sino ponerla en cuestión. El usuario aparece descrito como vulnerable, influenciable, emocionalmente frágil. Un sujeto que necesita filtros previos para no extraviarse. Esta infantilización cognitiva entra en abierta contradicción con el ideal democrático que se invoca para justificarla. Una democracia que no confía en la capacidad de sus ciudadanos para pensar por sí mismos acaba convirtiéndose en un sistema de tutela permanente, por no hablar de algo bastante peor.
La cuestión no es si la IA puede equivocarse o ser utilizada de forma irresponsable. La cuestión es si estamos dispuestos a asumir que la libertad intelectual incluye el derecho a explorar, a errar y a formular preguntas incómodas. Tratar al ciudadano como un menor de edad cognitivo puede resultar tranquilizador para el poder. Pero es una renuncia peligrosa para una sociedad que se supone democráticamente adulta.
La IA no desinforma: desintermedia
El principal reproche que hoy se lanza contra la inteligencia artificial es que desinforma. Que genera respuestas incorrectas, ambiguas o peligrosas. Que confunde al ciudadano. El argumento se repite con tal insistencia que conviene detenerse un momento y observar qué está ocurriendo en realidad. La IA no desinforma más que cualquier otro medio. La diferencia es que no monopoliza el discurso. No impone un relato cerrado. No exige adhesión previa. Responde a preguntas. Y ahí reside el problema.
La inteligencia artificial no amenaza por lo que dice, sino por lo que permite hacer. Permite comparar versiones, explorar hipótesis, poner en relación datos dispersos. Permite pensar sin pasar por el embudo de la agenda mediática o política. Eso no es desinformación. Es desintermediación.
Durante décadas, el control del debate público se sostuvo sobre un principio simple: quien controla los canales controla el marco y por ende la situación. La IA rompe ese esquema al introducir un diálogo individual, personalizado y continuo. No sustituye al periodismo ni a la política. Los obliga a competir en un terreno nuevo: el de la coherencia, la profundidad y la capacidad de convencer a ciudadanos que ya no dependen de un único filtro. Llamar “desinformación” a esa pérdida de control es una maniobra artera y conocida. La novedad es el alcance del fenómeno. Por primera vez, millones de personas disponen de una herramienta que no les dice qué pensar, sino que piensa con ellas. Eso incomoda, atemoriza. Y mucho.
Quizá por eso el debate real no gira en torno a la veracidad, sino a la tutela. No se discute cómo mejorar la capacidad crítica del ciudadano, sino cómo limitar su acceso a herramientas que la potencian.
La IA no desinforma. Desintermedia. Y esa es, para muchos, sobre todo para la clase política, repito, una amenaza mayor.
Juan M. Martínez Valdueza
Conozca a Juan M. Martínez Valdueza