IA y usuarios sintéticos en research: ¿aliados o ruido para entender la realidad?
Palabras clave: IA en investigación / usuarios sintéticos, research y AI / captación de participantes / recruitment con IA / investigación humana / validación de insights
En los últimos meses han aparecido con fuerza conceptos como “usuarios sintéticos”, “personas generadas por IA” o “simulaciones de journeys” para testear productos, mensajes o experiencias de forma rápida. La promesa es tentadora: obtener “insights” en minutos, sin reclutar ni coordinar sesiones con personas reales.
En quantica vemos la IA como una herramienta potente para preparar, acelerar y complementar la investigación, pero no como un sustituto del lado humano. La clave está en entender qué puede hacer bien y dónde empieza a distorsionar la realidad.
1. Qué son los “usuarios sintéticos” y para qué sirven.
Cuando hablamos de usuarios sintéticos nos referimos a representaciones simuladas de personas usuarias, por ejemplo:
Personas creadas a partir de datos históricos y “rellenadas” con IA.
Simulaciones de journeys (qué haría una persona tipo ante distintas pantallas o decisiones).
Conversaciones con modelos generativos que “actúan” como un perfil concreto de cliente.
Son útiles como sparring para:
Explorar hipótesis antes de ir a campo.
Afinar guiones y materiales de investigación.
Simular escenarios extremos que luego queremos contrastar con personas reales.
Generar variaciones rápidas de mensajes o claims para testear después.
En resumen: ayudan a pensar mejor y más rápido, pero no sustituyen la realidad.
2. Riesgos: cuando la IA deja de ayudar.
Los problemas empiezan cuando tratamos lo que dice un modelo como si fueran datos de campo:
Sobresimplificación: la IA genera respuestas ordenadas y coherentes; la vida real es más caótica y contradictoria.
Sesgos amplificados: si los datos de origen están sesgados, los “usuarios sintéticos” también lo estarán.
Falsa validación: “la gente prefiere X” basado solo en simulaciones es una trampa peligrosa.
Velocidad ≠ certeza: que algo sea rápido no significa que sea mejor para tomar decisiones importantes.
3. IA en la captación: apoyo, no piloto automático.
Más allá de las simulaciones, la IA también puede aportar valor en ENGAGE, el pilar de captación:
Diseñar y revisar screeners:
Proponer primeras versiones de cuestionarios.
Simplificar lenguaje y detectar ambigüedades.
Apoyar la segmentación:
Analizar datos internos para identificar patrones de uso.
Sugerir criterios de cuotas basados en comportamiento, no solo en demografía.
Optimizar la operación:
Redactar variantes de emails y mensajes de invitación.
Sugerir combinaciones de canales y horarios a partir de históricos.
Pero una captación “demasiado optimizada” por IA puede cerrar la puerta a perfiles que no encajan en el patrón aprendido y reforzar sesgos existentes. Por eso, para nosotros la IA en captación es asistente, no quien decide: las decisiones sobre a quién buscamos, cómo equilibramos diversidad y qué límites éticos ponemos siguen siendo humanas.
4. Cómo lo usamos en quantica.
En quantica partimos de una idea sencilla:
La investigación con personas es la base.
La IA es una herramienta más para pensar, explorar y preparar mejor.
La usamos para:
Diseñar mejores estudios y procesos de captación.
Afinar preguntas, materiales y mensajes.
Explorar ángulos antes de ir a campo.
Pero la validación, la comprensión profunda y la interpretación con contexto siguen viniendo de conversaciones, observaciones y datos con personas reales. Porque al final, no diseñamos para usuarios sintéticos. Diseñamos para personas. Y eso requiere tecnología, sí, pero también escucha, criterio y mirada humana.