Hay días en los que abro el teléfono y siento que mi vida se volvió un panel de control: pasos, sueño, productividad, notificaciones, recordatorios, “tendencias”.
Y sin embargo, en medio de tanta medición, me aparece una pregunta que no suena tecnológica, pero es exactamente tecnológica: ¿qué le pasa a lo humano cuando todo se convierte en dato?
¿La “dictadura digital” es exageración o diagnóstico?
Cuando alguien dice “dictadura digital”, muchos piensan en conspiración. Yo pienso en algo más cotidiano y más inquietante: la normalización de ser observados, perfilados y empujados sin sentirlo como violencia.
El Alto Comisionado de Naciones Unidas para los Derechos Humanos viene trabajando sobre privacidad en la era digital y sus riesgos: discriminación, desigualdad y efectos del procesamiento masivo de datos. No es un debate de nicho: es un debate de derechos.
La parte que más me preocupa no es que “nos miren”. Es que nos modelen. Que se vuelva aceptable que sistemas invisibles decidan qué vemos, qué tememos, qué deseamos. Y ahí aparece un punto clave: la pérdida de autonomía no llega con un golpe; llega como conveniencia.
Datos: el nuevo idioma del poder
Me interesa la política del dato. No la partidaria: la estructural. Porque hoy el poder no siempre se impone con censura; muchas veces se impone con arquitectura de elección.
La OCDE publicó un informe específico sobre IA, gobernanza de datos y privacidad, mapeando riesgos y oportunidades, y conectando principios de privacidad con el avance de IA. Es una lectura sobria: no demoniza, pero deja claro que sin reglas y sin accountability, la asimetría se vuelve enorme.
En paralelo, el mundo regula con enfoques diferentes. En Europa, por ejemplo, el AI Act define un marco legal para riesgos de IA, incluyendo prácticas prohibidas y categorías de alto riesgo. Más allá de si te gusta o no Europa, esto marca una tendencia global: la privacidad y la autonomía vuelven a ser el centro del debate tecnológico.
¿Qué queda del “yo” cuando todo es perfil?
Si todo se mide, todo se optimiza. Y si todo se optimiza, el ser humano corre un riesgo silencioso: confundir bienestar con performance.
- Dormir “bien” porque lo dice un reloj.
- Sentirse “mal” porque una app lo predijo.
- Elegir “mejor” porque un feed lo sugirió.
El problema no es la herramienta. El problema es el desplazamiento de autoridad interna: cuando el criterio sobre quién sos se terceriza.
Por eso insisto con la palabra “alma”: porque el alma, en mi definición, es lo que no se subcontrata.
Tres preguntas que deberíamos hacernos ya
- ¿Quién es el dueño de tu historia?
No de tu contenido: de tu biografía digital. Tus hábitos, tus recorridos, tus mensajes. - ¿Qué decisiones
tuyasya no son tuyas?
¿Cuánto de lo que querés ver, comprar, pensar o temer fue empujado por un sistema de recomendación? - ¿Qué parte tuya no se puede medir —y cómo la protegés?
Silencio, amistad, creatividad, sentido, duelo, contemplación. Lo que no entra en un KPI.
Mi postura
No quiero “volver al pasado”. No me interesa esa nostalgia. Me interesa algo más difícil: usar tecnología sin entregar la interioridad.
Creo que el futuro va a premiar una habilidad que hoy parece menor y mañana será estatus: saber desconectarse sin sentirse vacío. Saber elegir sin que te elijan.
El alma en la era de los datos no se defiende con discursos épicos. Se defiende con prácticas simples, casi irreverentes:
- decir “no” al exceso de medición,
- elegir privacidad como forma de dignidad,
- recuperar tiempo sin optimizarlo.
Porque si el precio de la eficiencia es la profundidad, no es progreso: es pobreza interior con buena interfaz.
