He estado documentando cómo nuestro equipo toma decisiones sobre asignación de presupuestos para influencers, y es sorprendentemente desordenado. Algunos días seguimos las recomendaciones de IA. Otros días, un gerente con experiencia anula basado en instinto. Esto hace imposible aprender qué funciona.
Entonci empecé a diseñar un framework que actúa como árbol de decisión: primero, ¿qué dice la IA? Luego, ¿qué información tenemos sobre el influencer en contexto de mercado local? Si hay conflicto, aplicamos un conjunto de reglas que priorizan información verificable.
Lo que descubrí es que la mayoría de conflictos surgen porque el modelo de IA está entrenado en datos históricos de un mercado dominante (EE.UU., típicamente), pero estamos ejecutando en un mercado con dinámicas completamente diferentes. Los influencers rusohablantes, por ejemplo, a menudo tienen ratios de engagement más altos pero follower counts más bajos—el reverso de EE.UU. Si no calibras el modelo para eso, toma malas decisiones.
Ahora tenemos reglas explícitas: si la recomendación de presupuesto es >30% diferente de nuestro presupuesto histórico promedio con ese influencer, requerimos validación manual antes de proceder. Esto reduce sorpresas. También documentamos cada desviación para poder retroalimentarla al modelo.
Pero aquí está mi pregunta: ¿tengo que hacer esto manualmente, o hay equipos que han encontrado una forma de automatizar completamente el process? Parece como si debería haber una solución mejor que mantener esta híbrida.