Imagen principal del artículo: Lo que ocurre cuando el sistema le conoce mejor que usted mismo

Lo que ocurre cuando el sistema le conoce mejor que usted mismo

Sobre soberanía cognitiva, predicción y una pregunta que Costa Rica debería hacerse.

Hay una incomodidad específica que casi nadie nombra con claridad cuando habla de inteligencia artificial. No es el miedo a ser reemplazado. Es el momento en que el sistema le acierta sin su permiso. Una recomendación demasiado precisa. Un párrafo generado que suena exactamente como algo que usted habría escrito. Una sugerencia que llega antes de que supiera que la necesitaba.

La incomodidad no es que el sistema esté equivocado. Es que quizás no lo está. Crecí en Costa Rica. De 700 estudiantes que empezaron el colegio en mi comunidad, 30 se graduaron. No porque los demás no fueran capaces, sino porque los sistemas a su alrededor no estaban diseñados para sostener su tipo particular de capacidad.

Eso no es una anécdota. Es un dato estructural. Y tiene una relación directa con lo que está ocurriendo hoy con la inteligencia artificial —aunque pocas veces se presenta así.

El cerebro no recibe la realidad. La predice.

Esto es lo que propone el predictive coding, un marco en neurociencia desarrollado por investigadores como Karl Friston y que cambió la forma en que entiendo mi propia experiencia. El cerebro no es un receptor pasivo de información sensorial. Es una máquina de predicción. Cada percepción que tenemos es una hipótesis que la mente genera sobre lo que es más probable que sea verdad, revisada constantemente contra la señal entrante. Lo que experimentamos como “ver una silla” es, en realidad, la confirmación de una predicción que el cerebro ya había hecho.

La realidad, en este modelo, es la versión de los eventos que la mente decidió que era más probable. Lo cual significa que la pregunta no es simplemente ¿qué es real? La pregunta es: ¿de quién es el modelo que está generando la predicción? Y en un mundo donde los sistemas externos —algorítmicos, tecnológicos, sociales— son cada vez más sofisticados para modelar el comportamiento humano, esa pregunta deja de ser filosófica. Se vuelve urgente.

La persona fuera del sistema puede ver su forma

Construí una trayectoria en tecnología desde afuera. Desde Costa Rica. Desde un contexto que no produce ingenieros de la manera en que lo hace Silicon Valley, ni asume que alguien que piensa con cuidado sobre los sistemas debería eventualmente terminar dentro de uno de sus circuitos. Llegué de todas formas. Y encontré que lo que el sistema no puede modelar con precisión no es un error. Es la información más importante que el sistema puede producir, porque revela dónde las suposiciones del modelo se rompen. La anomalía no está rota. La anomalía es el punto de datos más importante.

Esto no es una idea romántica sobre los de afuera. Es estructural. Y para un país como Costa Rica —que navega la transición digital con una brecha profunda entre quienes tienen acceso real a estas herramientas y quienes no— es una distinción que importa más de lo que parece.

Soberanía cognitiva no es resistencia

Aquí es donde la mayoría de las conversaciones sobre IA e identidad se equivocan. Enmarcan la pregunta como resistencia: ¿cómo nos protegemos del sistema? ¿Cómo nos mantenemos humanos? ¿Cómo luchamos? Pero ese marco acepta la premisa del sistema: que la disputa es entre usted y el modelo, y que el modelo es el actor activo.

La soberanía cognitiva es otra cosa. Es la práctica de permanecer legible para usted mismo. Conocer su propio modelo de quién es con suficiente claridad y profundidad para que la versión del sistema no pueda sustituirlo silenciosamente. El sistema mejora en predicción cada año. Seguirá haciéndolo. Ese no es el problema que hay que resolver. La pregunta es si usted sigue siendo legible para sí mismo más rápido de lo que el sistema lo mapea.

No resistencia. Mantenimiento. El trabajo continuo de permanecer en contacto con su propio interior, con su propia capacidad de generar un pensamiento que el sistema no haya sugerido ya. Esta es la pregunta que debería estar en el centro del debate público costarricense sobre inteligencia artificial. No solo ¿cómo adoptamos la tecnología?, sino ¿qué ocurre con las personas cuya forma de pensar el sistema no puede mapear —y qué perdemos si las optimizamos fuera de la ecuación?

Los 670 estudiantes que no se graduaron en mi comunidad no eran incompatibles con el conocimiento. Eran incompatibles con el modelo. Y el sistema de IA que hoy llega a Costa Rica fue construido, en su mayor parte, con datos que no los incluyen. La incomodidad que siente cuando el sistema le acierta sin su consentimiento no es un defecto en su psicología. Es soberanía cognitiva afirmándose. Es la parte de usted que sabe que hay una diferencia entre ser comprendido y ser predicho. Esa distinción importa más de lo que parece.