Es curioso cómo, en el afán de ser parte de una “tendencia”, solemos dejar de lado algo básico: el cuidado de la información que publicamos.
En los últimos días se volvió popular pedirle a una IA que genere una caricatura del usuario usando “todo lo que sabe sobre él”. El problema no es la caricatura. El problema es todo lo que queda expuesto en el proceso.
Algunas de las imágenes generadas resultan preocupantes desde el punto de vista cibernético y de seguridad personal:
- Personas que históricamente cuidaban no revelar dónde trabajan ahora muestran, sin notarlo, su lugar de trabajo, su rol y hasta los sistemas que utilizan. No solo delincuentes cibernéticos podrían usar esa información para atacar esos sistemas: también se pone en riesgo la seguridad física, porque puede inferirse capacidad económica y la persona podría convertirse en víctima de robos o asaltos.
- En otros casos, aparecen referencias claras al uso de datos de clientes para revisar logs o información técnica. Esto puede ser una falta grave al manejo ético de datos, muchas veces rastreables (trazable).
- Hay resultados de abogados donde se exponen números de caso u otros datos sensibles, lo que deja entrever el uso de herramientas de IA con información confidencial.
- Incluso en perfiles vinculados a la política, se sugieren prácticas que implican el manejo de datos privados de ciudadanos para análisis o generación de políticas públicas.
Lo peligroso no es solo el uso de IA con datos confidenciales de clientes, usuarios finales o terceros bajo acuerdos de confidencialidad. Lo verdaderamente alarmante es la ausencia total de filtro al momento de publicar, una señal clara de la enorme falta de educación digital que aún tenemos sobre cómo funcionan estas herramientas.
Pero lo peor de la situación es que medios de comunicación tradicionales —periódicos, radio y televisión— han cubierto esta tendencia poniendo el énfasis casi exclusivamente en lo viral del fenómeno. Algunos incluso han ido más allá, ofreciendo consejos sobre cómo hacer mejor la caricatura, sin dedicar espacio a discutir los riesgos reales de privacidad, seguridad y uso indebido de datos que esta práctica conlleva.
Cuando los medios amplifican la tendencia sin contextualizar sus peligros, no solo normalizan el problema: contribuyen activamente a profundizar la desinformación digital.
Muchas personas podrían incluso poner en riesgo sus trabajos con estas publicaciones, porque a veces dejan evidencia del uso de IA para manejar información confidencial. En muchísimos puestos se firman acuerdos de protección de datos y de resguardo de información de terceros, especialmente en el sector informático.
Paradójicamente, la misma IA puede ayudarnos a identificar y reducir información sensible, si sabemos cómo usarla.
Por ejemplo, un prompt como este puede servir para entender qué información se ha ido acumulando:
Actuá como editor de contexto
1) Devolveme un resumen de “lo que sabés sobre mí” en 7 secciones, en bullets:
- Identidad y preferencias de trato (nombre/apodo si aparece, idioma/tono)
- Intereses y gustos (cine, juegos, lectura, etc.)
- Proyectos y trabajo (apps, procesos, herramientas)
- Rutinas y hábitos (salud, NA, organización, etc.)
- Preferencias operativas (formatos, reglas, cómo querés que responda)
- Historial y contexto personal
- Lista de “suposiciones/lagunas” (qué NO está claro o falta)
2) Para cada bullet, agregá al final: [EVIDENCIA: cita breve o referencia del mensaje donde salió].
3) Marcá con ⚠️ cualquier dato que sea sensible o que yo podría querer borrar.
4) Cerrá con:
- “Lo más importante para recordarme”
- “Lo que conviene olvidar/borrar si quiero más privacidad”
Usar IA —como cualquier otra herramienta— exige desconfianza sana, criterio y responsabilidad, especialmente cuando se trata de datos personales o de terceros, y más aún si esos datos son identificables o rastreables.
La tecnología no es el problema. La ligereza con la que la usamos, sí.
