He estado corriendo campañas basadas en predicciones de performance generadas por IA durante los últimos 6 meses, y quería compartir lo que realmente está sucediendo versus lo que prometen las herramientas.
La mayoría de plataformas de IA dicen que pueden predecir ROI basándose en benchmarks cross-market, historial del influencer, seasonal trends, etc. Suena bien en el pitch. He usado modelos que toman decades de data de campañas pasadas en US y mercados rusófonos, aparentemente optimizados para mi vertical específica.
Aquí está mi hallazgo: las predicciones son sorprendentemente precisas… el 70% de las veces. El 30% que se equivoca? A menudo es donde pierdo dinero. Y lo peor es que después no sé por qué se equivocó. ¿Fue porque el benchmark estaba mal? ¿Porque el influencer hizo algo diferente con el contenido? ¿Porque mi CTA fue débil? La caja negra de la IA no te lo dice.
Lo que sí veo es que las predicciones funcionan mejor cuando tienes data densa del influencer (muchas campañas previas registradas) pero en nuevos mercados o con creadores emergentes? El modelo se vuelve especulativo.
¿Alguien más está viendo este patrón o es solo mi muestra? ¿Cómo estáis calibrando vuestras expectativas de confianza en predicciones de IA?
Ese 70% que mencionas es honestamente mejor que la mayoría de los modelos que he visto. La verdad sobre ML en marketing es que la precisión perfeccionista es casi imposible porque tenemos variables que no controlas: cambios en algoritmos de plataforma, comportamiento de usuario impredecible, campañas competidoras, etc. Lo importante es entender dónde es fuerte el modelo y dónde es débil. En nuestro caso, usamos predicciones de IA no como verdad absoluta sino como un marco de referencia para nuestros benchmarks internos. Cuando la IA predice $2 CPM y nuestro data histórico dice $1.80, sabemos dónde ajustar. La meta-predicción (predicción sobre la predicción) es donde está el value real.
Necesitas un sistema de feedback explícito post-campaña. Cada predicción que te da la IA debería tener un correspondiente análisis actual: qué predijo, qué pasó, por qué divergió. Estamos construyendo esto en mi agencia ahora. Es más trabajo, pero te permite mejorar el modelo progresivamente. Y lo más importante: nunca bases decisión de presupuesto únicamente en una predicción de IA. Siempre hay una opinión humana, intuición acumulada, context que la máquina no ve. Usa IA como data point fuerte, no como verdad revelada.
Como influencer, lo que me molesta es que muchas predicciones ignoran variables que nosotros los creadores controlamos. Mi energía ese día, si estoy inspirado, si el contenido es realmente mío o sentí que era obligación—eso afecta el resultado pero la IA no lo mide. Cuando trabajas con creadores que realmente se importan de la campaña, típicamente supera predicciones porque hay pasión real. La IA ve números históricos, no ve si un influencer está quemado o energizado. Por eso siempre pregunto cómo se sienten los creadores al respecto, no solo qué dice el modelo.