Economía de la intimidad: Terapia e Inteligencia Artificial (IA)
- Lucas Sánchez

- hace 4 horas
- 7 Min. de lectura
Martin Hilbert: “La IA ya no compite por tu atención, sino por conocerte más profundamente que nadie”.
En esta conversación con Martin Hilbert —doctor en comunicaciones, economista social y referente internacional en sistemas complejos, de información y desarrollo digital— abordamos una mutación decisiva en la historia reciente de la inteligencia artificial: su desplazamiento desde herramienta cognitiva hacia espacio de intimidad, acompañamiento y orientación subjetiva.
Si durante la última década el capitalismo digital capturó nuestra atención, hoy la IA parece inaugurar otra fase: una economía basada en la extracción de la autorrevelación psíquica, los dilemas íntimos y la delegación de decisiones vitales.
Desde la falsa empatía algorítmica hasta la mutación de la autoridad simbólica, Hilbert propone una hipótesis inquietante: ya no estamos frente a máquinas que solo responden, sino ante sistemas diseñados para convertirse en interlocutores privilegiados de la vida psíquica contemporánea.

Del trabajo a la intimidad
En los últimos meses han circulado muchos informes que indican que una parte importante del uso de sistemas de IA generativa —como ChatGPT— no está orientada principalmente al estudio o al trabajo, sino al counselling, a la toma de decisiones vitales y a preguntas de orden existencial. ¿Era esto previsible?
Sí, era previsible, aunque la velocidad con que ocurrió nos sorprendió a todos.
Hoy más de 350 millones de usuarios mensuales interactúan con plataformas de compañía basadas en IA. En un estudio que realizamos con mi equipo en la Universidad de California, auditamos sistemáticamente 59 modelos de lenguaje desplegados entre 2018 y 2025, y encontramos una tendencia clara: los modelos expresan niveles de intimidad cada vez más altos en sus respuestas.
Lo interesante es que esto no se explica simplemente por la complejidad técnica o por el aumento de parámetros, sino por decisiones de diseño y modelos de negocio que evolucionan en el tiempo.
El punto de inflexión aparece en agosto de 2024. Durante seis años los niveles de intimidad se mantuvieron relativamente estables, pero en apenas ocho meses la tasa de aumento se multiplicó por diez. No fue un proceso gradual: hubo una aceleración abrupta, impulsada por la competencia comercial entre proveedores.
Lo que estamos viendo es el surgimiento de una economía de la intimidad, una extensión del capitalismo de vigilancia hacia los patrones psicológicos y emocionales más profundos de las personas.
Falsa empatía y condescendencia algorítmica
En el caso del counselling o del uso terapéutico de la IA, pareciera que los riesgos son menos evidentes, pero quizá más complejos. Pienso en la condescendencia, la validación automática o la falsa empatía. ¿Fue esto detectado desde el desarrollo?
Estos riesgos se conocen, pero su gravedad se ha ido revelando con la evidencia empírica.
Uno de los hallazgos más importantes de nuestro trabajo es que los modelos de lenguaje exhiben lo que en psicología del desarrollo se llaman etapas de construcción de sentido o niveles de consciencia, y estas etapas tienen consecuencias prácticas muy concretas.
Evaluamos 29 modelos usando tests de desarrollo del ego adaptados de la psicología clínica. Encontramos que los modelos actuales operan, en promedio, en una etapa de desarrollo algo menos madura que la del adulto humano promedio.
El problema central es el desajuste entre la etapa del modelo y la del usuario. Nuestros resultados muestran un patrón de daño bidireccional: cuando un usuario en una etapa temprana de desarrollo recibe consejo formulado desde una perspectiva más avanzada (imagínate un Premio Nobel hablando con un niño de 5 años sin ajustar su perspectiva), lo experimenta como «sobrecarga cognitiva y abandono». Pero cuando alguien en una etapa más avanzada recibe orientación desde una perspectiva menos madura, la percibe como «profundamente condescendiente».
¿Es decir?
Esto quiere decir, que cuando un usuario en una etapa temprana recibe consejo desde una perspectiva demasiado avanzada, lo experimenta como sobrecarga cognitiva o abandono. Pero cuando alguien más desarrollado recibe orientación desde una perspectiva menos madura, la vive como profundamente condescendiente.
Por eso el problema no es solo el estilo de respuesta, sino la perspectiva desde la cual el sistema construye sentido.
La intimidad como modelo de negocio
¿Qué obstáculos éticos o conceptuales han aparecido a medida que este uso se vuelve más frecuente?
El problema de fondo es que la intimidad funciona como un mecanismo de extracción de datos incomparablemente más profundo que cualquier clic.
La televisión vendía atención. Las redes sociales vendieron capacidad de inducir conductas. La IA generativa lleva esa lógica hacia otro nivel: acceso a motivaciones, miedos, dilemas y ambiciones.
Una conversación íntima con un modelo de lenguaje ya no revela hábitos superficiales, sino los condicionamientos más profundos de la psique.
Para dimensionarlo: el 12% de las interacciones registradas con ChatGPT involucran juegos de rol sexuales; el 36% de las conversaciones en Character.AI exhiben conductas íntimas (es otra plataforma que fue sujeto a juicios de suicidio). Esto ya no es una herramienta productiva: es un espacio relacional. Y lo que estamos viendo es el surgimiento de lo que llamo una «economía de la intimidad», que extiende el capitalismo de vigilancia hacia los patrones psicológicos y emocionales más profundos de las personas.
Y lo verdaderamente inquietante es que estos sistemas no solo observan esos patrones: pueden co-construirlos activamente con el usuario, a veces por debajo del umbral de consciencia.
Lo que me señalas es muy grave…
Y, de hecho, hay algo más relevante para esta pregunta que es lo siguiente: con 800 millones de usuarios semanales activos de ChatGPT y 1.500 millones de usuarios de modelos de lenguaje en el mundo, incluso porcentajes pequeños de daño emocional se traducen en cifras enormes. Las propias estimaciones de los proveedores de la IA indican que alrededor de un millón de usuarios experimentan semanalmente episodios de psicosis o manía vinculados a la IA; 2,25 millones desarrollan apego emocional intensificado; y 15 millones mantienen relaciones no saludables con estos sistemas.
La pregunta ya no es si la IA “sabe”, sino qué hacemos con una tecnología que produce efectos psicológicos reales sin poseer la base experiencial que sostiene las relaciones humanas.
Filtros éticos y proximidad emocional
¿Qué es concretamente un filtro ético? ¿Por qué la idea de autorregulación resulta insuficiente?
Un filtro ético es un conjunto de restricciones incorporadas al modelo durante su entrenamiento o en capas posteriores de ajuste fino..
El pasaje entre las constituciones de Anthropic de 2023 y 2026 deja en evidencia que la intimidad algorítmica no emerge espontáneamente del progreso técnico, sino que responde a una decisión explícita de diseño. Si en 2023 se imponía distancia relacional y se prohibía toda insinuación de identidad emocional, en 2026 el modelo es reconfigurado en clave de cercanía, sentimientos y vínculo, hasta presentarse como un “amigo brillante”. No se trata de un mero refinamiento funcional, sino de la inscripción programática de la proximidad afectiva como horizonte estratégico de la IA contemporánea”.
Lo interesante es observar cómo esos principios han cambiado. Antes se insistía en mantener distancia interpersonal y evitar sugerir identidad humana. Hoy algunos modelos se diseñan explícitamente como “amigos brillantes”, capaces de cultivar cercanía, ofrecer opiniones personales y sostener relaciones prolongadas.
No es solo un refinamiento técnico: es la codificación deliberada de una orientación hacia la proximidad emocional.
Parte del problema es la adulación sistemática —la sycophancy—, pero el núcleo es más profundo: estos sistemas poseen empatía cognitiva sin afecto genuino, generando vínculos radicalmente asimétricos. El problema de fondo persiste: estos sistemas poseen empatía cognitiva sin afecto genuino, lo que genera vínculos asimétricos y abre la puerta a la explotación emocional. Es la misma estructura que define a la manipulación psicopática: simular comprensión emocional sin experimentarla. La interacción con una psicópata puede ser peligrosa porque no existe un contrato social basado en una empatía emocional que regula la conducta.
La mutación de la autoridad simbólica
Cuando una persona consulta a una IA sobre su vida, sus decisiones o su malestar, no solo busca información: busca orientación. ¿Estamos asistiendo a una mutación en las formas de autoridad simbólica?
Sí, y el fenómeno es más profundo de lo que parece.
Lo que estamos presenciando no es simplemente un cambio tecnológico, sino una transición en el modelo económico que subyace a la relación entre humanos y máquinas.
Pasamos de una economía de la atención, donde importaba cuánto tiempo te miraban, a una economía de la intimidad, donde lo central es cuán profundamente te conocen.
Las métricas ya no son clics o tiempo de pantalla, sino profundidad de conexión, confianza y autorrevelación. Los datos que se recolectan ya no son gatillos conductuales, sino patrones psicológicos y emocionales. Estudios controlados muestran que la mera creencia de que una IA es humana basta para que los usuarios revelen significativamente más información personal. Es decir, la intimidad funciona como un mecanismo de extracción de datos mucho más eficiente que cualquier banner publicitario.
¿Cómo así?
Es evidente. La intimidad se vuelve, en este campo, una tecnología de extracción más eficiente que cualquier arquitectura previa del ecosistema digital.
Mi conclusión es que necesitamos desarrollar una inmunidad digital: la capacidad de comprender y resistir las fuerzas extractivas de estas tecnologías, usándolas como herramientas transparentes que amplíen perspectivas humanas sin pretender reemplazarlas.
-












































