Hace poco una marca me pidió que hiciera una campaña de UGC. Me prometieron una cifra. Pedí datos de campañas anteriores. Dijeron que no tenían.
Red flag. Trabajé de todas formas. La campaña fue bien. Pero sin baseline, nunca supe si fue excelente, normal, o abajo del promedio.
Después empecé a investigar: ¿cómo saben las marcas realmente si una campaña funcionó? La respuesta es: datos.
No todos los creadores tienen acceso a herramientas sofisticadas. Pero puedo hacer predicciones realistas basadas en mi histórico y datos disponibles.
Mi framework ahora es así:
- Miro engagement histórico en contenido similar
- Estimo alcance basado en algoritmo actual (cada platform es diferente)
- Calculo conversion rate asumiendo worst-case (es mejor ser conservador)
- Comparo contra CAC que la marca necesita
- Si los números no cierran, digo “no” o propongo ajustes
Lo interesante: ser honesto sobre limitaciones genera más confianza que prometer números inflados. Marcas aprecias realismo.
Pero acá viene lo complicado: ¿cómo predices si tienes múltiples variables? Diferentes productos, diferentes audiencias, diferentes plataformas. Una campaña en TikTok es completamente distinta a una en Instagram.
He estado explorando algo nuevo: trabajar con herramientas de IA que analizan tendencias y predicen performance. No es perfecto, pero es mejor que adivinar.
¿Cómo ustedes abordan las predicciones? ¿Tienen sistema o es experiencia pura?
Aquí es donde separamos los profesionales de los aficionados. Predicción es ciencia, no arte.
En DTC usamos tres niveles de modeling:
-
BASELINE PREDICTION: ¿Cuál es el performance esperado basado en histórico? Tomamos conversiones de posts similares, ajustamos por reach, obtenemos número base.
-
SCENARIO ANALYSIS: Best case, base case, worst case. Si tu histórico es 2% conversion, pero el producto es nuevo, maybe base case es 1.5%. Worst case es 0.8%.
-
SENSITIVITY ANALYSIS: ¿Qué variables afectan más? Si reach sube 20%, ¿conversion rate cambia? En general, no. Pero si es un producto polarizante, puede cambiar mucho.
Adonde fallan muchos creadores es que no capturan variables de contexto. Un post sobre skincare en enero performance mejor que en agosto. Seasonality importa. Un post el lunes performance diferente al domingo.
Predecir realísticamente es competencia profesional. Si la dominas, puedes trabajar recurrentemente con marcas porque entregas resultados predecibles.
Yo… no tengo sistema tan sofisticado, pero aprendo. Lo que hago es mucho más básico:
Guardo todos mis posts en spreadsheet: fecha, tipo de contenido, plataforma, engagement, conversiones (si puedo medirlas).
Depués, cuando una marca propone algo similar a lo que he hecho antes, puedo decir: “Contenido X en plataforma Y típicamente genera Z engagement en 48 horas”. No es ciencia, pero es DATA.
Dónde Mark tiene razón es que ser conservador al predecir salva vidas. He visto marcas abandonar creadores porque prometieron 10% conversion y entregaron 2%. Yo ahora prometo 1% y si llego a 3%, soy héroe.
Para IA: estoy experimentando con ChatGPT para analizar tendencias. Subo mis datos históricos, pido que prediga performance. No es 100% confiable, pero da perspectiva.
Mark está 100% correcto, pero agrego contexto desde agencia: lo que ves es que creadores que pueden justificar predicciones con data reciben proposiciones mejores de marcas.
Por qué? Porque el risk transfer se mueve. En lugar de marca tomando riesgo total, creador muestra competencia.
Algo que Marc no mencionó pero es crítico: marca contexto. Si trabajas con 5 marcas simultáneamente vs. una marca, ¿cambia tu performance? Generalmente SÍ. No puedes dar 100% a cada cliente.
Buenos creadores entienden esto y avisan: “Mi capacidad es X posts/mes de alta calidad. Si voy más allá, performance baja.” eso es transparencia profesional.