Cuando tus datos de influencers no son suficientes para predecir: ¿qué hacen realmente los expertos?

Hace poco lancé una campaña con un influencer nuevo que mi modelo predecía sería un buen fit, pero no teníamos muchos datos históricos sobre él. Básicamente estábamos trabajando con un puñado de métricas públicas y poco más.

Lo que pasó fue interesante: el modelo dijo que íbamos a conseguir X conversiones con cierto presupuesto. Pero antes de gastar todo ese dinero, contacté a un experto que conoce ese mercado (ruso, en este caso) y me dijo de forma muy calmada: “mira, formalmente los números se ven bien, pero este tipo ha trabajado principalmente con marcas locales. La dinámica con un estadounidense podría ser diferente.”

Terninó siendo una conversación donde el experto me dijo cosas que el modelo NUNCA hubiera capturado. Cosas sobre cómo negocia este influencer, cómo reacciona a cambios de brief, su reputación en la comunidad más allá de números públicos.

Entonces terminé ajustando presupuesto a ~60% de lo que el modelo predecía. Y, honestamente, fue acierto. El rendimiento fue sólido pero no espectacular, exactamente como el experto había sugerido.

Latom pregunta: cuando ustedes no tienen datos históricos suficientes, ¿cómo pesan la predicción del modelo contra lo que expertos dicen? ¿existe un framework para combinar ambas cosas sin que sea solo “corazonada”?

Eso que describes es exactamente por qué los expertos siguen siendo irreemplazables. He visto esto mil veces.

Nuestro framework es simple: si el modelo confía menos de 70% (básicamente, si hay ruido en los datos), el experto tiene veto. Si el modelo es confidencia 80%+, el experto puede desafiar pero necesita razones muy claras. En medio, es negociación.

Pero además, usamos expertos como validadores continuos—después de que la campaña termina, comparamos predicción vs resultado, y ajustamos cuánto peso le damos a ese modelo en el futuro. Si sistemáticamente falla con influencers nuevos, aprendemos a desconfiar más de predicciones bajas-data.

Lo que el experto captó es la reputación social que los datos públicos no muestran. He trabajado con agencias que solo ven números y hacen briefs terribles. He trabajado con otras que hablan con creadores que ya me conocen, y preguntan “¿cómo es trabajar con ella?”. Esa información es oro.

Desde mi lado, lo que se pierde en los modelos es: ¿qué tan responsive es el creador? ¿Qué tan bueno es en resolver problemas? ¿Cómo maneja feedback? Eso es lo que separa un influencer mediocre de uno que entiende cómo hacer que tu marca brillé.

Conceptualmente, lo que describís se parece a “ensemble learning” pero con juicio humano incluido formalmente.

Mi enfoque es: trata al experto como un modelo adicional. Asignale una confianza basada en su track record (si su recomendación de 60% resultó correcta, su modelo tuvo un 95% de precisión). Luego combina predicción de ML + predicción de experto usando pesos Bayesianos.

El beneficio es que es auditable—puedes ver literalmente qué peso tuvo cada fuente en la decisión final. Y cuando ambos (modelo + experto) coinciden, tu confianza aumenta. Cuando divergen, al menos es una decisión consciente, no un tiro al aire.

Para influencers nuevos específicamente, sugiero un período de “calibración”: primeras dos campañas, usa presupuesto reducido, recoge datos, luego recalibra.