¿Usuarios sintéticos para investigación UX? lo que empieza a mostrar la investigación publicada (y nuestra experiencia)
- hace 1 día
- 5 Min. de lectura
Actualizado: hace 3 horas
Los usuarios sintéticos prometen acelerar la investigación UX, pero todavía hay muchas dudas sobre su fiabilidad. Revisamos qué dice la evidencia publicada y cuándo pueden ser útiles sin sustituir la investigación con usuarios reales.
Continuamos profundizando en este asunto, tras el primer artículo que publicamos: ¿Los "usuarios sintéticos" generados por IA sirven para la investigación UX?

En nuestro trabajo con equipos de producto, marketing y negocio vemos cada vez más interés por utilizar IA para acelerar procesos de investigación y toma de decisiones. La presión por tomar decisiones rápido con menos recursos es real.
Y si hay una tecnología que promete acelerar el proceso de entender al usuario, merece una evaluación honesta y sosegada, no usar IA simplemente porque es lo que toca.
Eso es exactamente lo que este artículo intenta hacer. No desde el entusiasmo ni desde el rechazo, sino desde la evidencia que empieza a acumularse en la literatura científica, y nuestra propia experiencia.
El debate no debería centrarse solo en si los usuarios sintéticos “aciertan” o “fallan”, sino en algo más delicado: si generan suficiente confianza como para influir en decisiones para las que todavía no ofrecen una evidencia suficientemente sólida.
Empieza a haber evidencia. Y obliga a ser prudentes.
Este mes, Jim Lewis y Jeff Sauro, investigadores de MeasuringU —uno de los referentes internacionales en investigación UX cuantitativa— publicaron una de las revisiones más rigurosas hasta ahora sobre el tema: 12 estudios peer-reviewed, publicados desde 2023, que evalúan hasta qué punto los usuarios sintéticos se comportan como personas reales.
El balance no es un rechazo total. La revisión identifica nueve hallazgos positivos frente a catorce negativos. Pero lo más relevante no es solo la proporción, sino el tipo de límites que aparecen: similitudes parciales en patrones generales, pero problemas recurrentes cuando se analizan matices, segmentos, variabilidad y profundidad cualitativa.
Esto es lo que la investigación encuentra una y otra vez.
Las correlaciones aparecen, pero no significan equivalencia.
Los usuarios sintéticos a veces aciertan en tendencias generales. Pero cuando se mira con más detalle (subgrupos, segmentos específicos, matices de comportamiento) los errores aparecen. Y aparecen de formas que no siempre son obvias a primera vista.
Una superficie "razonable" convive con errores importantes. Puede haber respuestas que parecen plausibles, pero que no son suficientemente precisas. Patrones generales que coinciden, pero con distorsiones en los detalles que importan para decidir. El problema no es que los datos sintéticos fallen siempre de forma evidente. Es que a veces fallan de formas que no se detectan sin contrastarlos con la realidad.
En investigación cualitativa, los límites son más claros. El único estudio de la revisión directamente relacionado con entrevistas UX (Kapania et al., CHI 2025) pidió a diecinueve investigadores UX que replicaran con IA uno de sus proyectos reales. Al principio se sorprendieron: emergían narrativas similares. Pero al profundizar, los problemas eran evidentes: sin profundidad experiencial real, sin los matices contextuales que condicionan una decisión, sin la complejidad que solo aparece cuando hablamos con personas reales.
Esta misma distancia la observamos en Rocket en un proyecto en el que combinamos entrevistas en profundidad y focus groups con una prueba posterior usando perfiles sintéticos: las respuestas generadas por IA podían resultar coherentes, pero no reflejaban los aspectos más complejos, contextuales y emocionales que sí aparecieron en la investigación con personas reales.
El coste real de una falsa sensación de conocimiento
Aquí está el punto que más nos importa trasladar a quienes toman decisiones de negocio.
El riesgo de los usuarios sintéticos no es que sean malos. Es que pueden ser suficientemente convincentes como para que no se note que algo falla.
Una respuesta bien formulada y ordenada no es lo mismo que un insight válido. Pero si parece válida, entra en el proceso. Condiciona la decisión. Y cuando esa decisión tiene impacto en producto, en comunicación o en inversión, el coste de haberse equivocado no es menor por haber llegado con datos bonitos en una presentación.
El coste real no está en hacer una prueba sintética. El coste aparece cuando tratamos esa prueba como si fuera investigación validada con usuarios reales.
3 situaciones reales que pueden suceder:
Validar una funcionalidad que luego falla Se lanza una nueva funcionalidad basada en research sintético que valida la propuesta. Falla en el mercado. ¿Cuánto cuesta ese lanzamiento mal calibrado? ¿Cuánto cuesta repetirlo?
Descartar una oportunidad que sí tenía potencial Se descarta un concepto porque los usuarios sintéticos lo rechazaron. Era el bueno. ¿Cuánto cuesta la oportunidad perdida?
Rediseñar un flujo crítico con una base insuficiente Se rediseña un flujo crítico de conversión basado en datos que parecían sólidos. Las métricas empeoran. ¿Cuánto cuesta la investigación real que habría ayudado a detectar el problema antes?
La investigación con usuarios reales no debería verse solo como un coste, sino como una forma de reducir el riesgo de tomar decisiones mal calibradas.
Entonces, ¿ahora para qué sirven los usuarios sintéticos?
La misma revisión de MeasuringU apunta al uso que parece más razonable hoy: trabajar sobre conocimiento ya existente, no tanto para generar conocimiento nuevo.
Si ya tienes investigación previa sólida sobre tus usuarios, los modelos sintéticos pueden ayudarte a interrogar esa información de nuevas formas, sintetizarla o identificar patrones que no habías visto. También pueden tener sentido en fases de exploración muy temprana: generar hipótesis, anticipar posibles barreras o tensionar un concepto antes de invertir en contrastarlo con personas reales.
Lo que todavía no parece prudente pedirles —con la evidencia actual— es que generen conocimiento nuevo y fiable sobre cómo usuarios reales piensan, deciden, se bloquean o confían.
Porque para eso hacen falta personas reales, con experiencias reales, en contextos reales.
Nuestra lectura sobre este tema
Llevamos años trabajando con equipos que quieren entender mejor a sus usuarios y tomar mejores decisiones. Lo que vemos con los usuarios sintéticos no es una tecnología inútil. Es una tecnología interesante, pero que a menudo se está vendiendo por encima de lo que la evidencia actual justifica.
La buena noticia es que empieza a haber datos reales. Y esos datos nos permiten hacer algo más útil que tomar partido en un debate de "a favor o en contra": nos permiten identificar para qué pueden servir, para qué no, y cómo incorporarlos con más criterio.
Por ahora, si necesitamos entender cómo los usuarios reales interpretan, deciden, confían o abandonan, la investigación con personas sigue siendo la única forma de saberlo con la fiabilidad que una decisión importante merece.
No porque la tecnología no vaya a evolucionar. Seguramente lo hará. Sino porque hoy, con la evidencia disponible, confiar en usuarios sintéticos para decisiones críticas implica asumir un riesgo que no siempre se ve venir: creer que entendemos al usuario cuando en realidad solo hemos generado una versión plausible de él.
Si estás valorando incorporar IA en procesos de research, diseño o autoservicio digital, podemos ayudarte a identificar dónde aporta valor real y dónde conviene validar con usuarios. Estaremos encantados de hablar y entender tu situación particular.


