IA y usuarios sintéticos en research: ¿aliados o ruido para entender la realidad?


Palabras clave: IA en investigación / usuarios sintéticos, research y AI / captación de participantes / recruitment con IA / investigación humana / validación de insights

 

En los últimos meses han aparecido con fuerza conceptos como “usuarios sintéticos”, “personas generadas por IA” o “simulaciones de journeys” para testear productos, mensajes o experiencias de forma rápida. La promesa es tentadora: obtener “insights” en minutos, sin reclutar ni coordinar sesiones con personas reales.

En quantica vemos la IA como una herramienta potente para preparar, acelerar y complementar la investigación, pero no como un sustituto del lado humano. La clave está en entender qué puede hacer bien y dónde empieza a distorsionar la realidad.

 

1. Qué son los “usuarios sintéticos” y para qué sirven.

 

Cuando hablamos de usuarios sintéticos nos referimos a representaciones simuladas de personas usuarias, por ejemplo:

  • Personas creadas a partir de datos históricos y “rellenadas” con IA.

  • Simulaciones de journeys (qué haría una persona tipo ante distintas pantallas o decisiones).

  • Conversaciones con modelos generativos que “actúan” como un perfil concreto de cliente.

Son útiles como sparring para:

  • Explorar hipótesis antes de ir a campo.

  • Afinar guiones y materiales de investigación.

  • Simular escenarios extremos que luego queremos contrastar con personas reales.

  • Generar variaciones rápidas de mensajes o claims para testear después.

En resumen: ayudan a pensar mejor y más rápido, pero no sustituyen la realidad.

 

2. Riesgos: cuando la IA deja de ayudar.

 

Los problemas empiezan cuando tratamos lo que dice un modelo como si fueran datos de campo:

  • Sobresimplificación: la IA genera respuestas ordenadas y coherentes; la vida real es más caótica y contradictoria.

  • Sesgos amplificados: si los datos de origen están sesgados, los “usuarios sintéticos” también lo estarán.

  • Falsa validación: “la gente prefiere X” basado solo en simulaciones es una trampa peligrosa.

  • Velocidad ≠ certeza: que algo sea rápido no significa que sea mejor para tomar decisiones importantes.

 
 

3. IA en la captación: apoyo, no piloto automático.

 

Más allá de las simulaciones, la IA también puede aportar valor en ENGAGE, el pilar de captación:

  • Diseñar y revisar screeners:

    • Proponer primeras versiones de cuestionarios.

    • Simplificar lenguaje y detectar ambigüedades.

  • Apoyar la segmentación:

    • Analizar datos internos para identificar patrones de uso.

    • Sugerir criterios de cuotas basados en comportamiento, no solo en demografía.

  • Optimizar la operación:

    • Redactar variantes de emails y mensajes de invitación.

    • Sugerir combinaciones de canales y horarios a partir de históricos.

Pero una captación “demasiado optimizada” por IA puede cerrar la puerta a perfiles que no encajan en el patrón aprendido y reforzar sesgos existentes. Por eso, para nosotros la IA en captación es asistente, no quien decide: las decisiones sobre a quién buscamos, cómo equilibramos diversidad y qué límites éticos ponemos siguen siendo humanas.

 
 

4. Cómo lo usamos en quantica.

 

En quantica partimos de una idea sencilla:
La investigación con personas es la base.
La IA es una herramienta más para pensar, explorar y preparar mejor.
La usamos para:

  • Diseñar mejores estudios y procesos de captación.

  • Afinar preguntas, materiales y mensajes.

  • Explorar ángulos antes de ir a campo.

Pero la validación, la comprensión profunda y la interpretación con contexto siguen viniendo de conversaciones, observaciones y datos con personas reales. Porque al final, no diseñamos para usuarios sintéticos. Diseñamos para personas. Y eso requiere tecnología, sí, pero también escucha, criterio y mirada humana.

 
Siguiente
Siguiente

De la “muestra general” a la muestra inclusiva: cómo incluir necesidades de accesibilidad desde la captación