He estado pensando mucho en esto últimamente. Trabajamos con una marca grande que quería lanzar una campaña simultáneamente en US y mercado rusohablante, y la presión era: hacer todo rápido, usar IA para screening, y gastar lo menos posible en validación manual.
Usamos herramientas de IA para flagear influencers de riesgo, detectar bots, revisar el contenido histórico… pero cuando llegó el momento de realmente confiar en los creadores, nos dimos cuenta de que los algoritmos nos estaban dando señales contradictorias entre mercados. Un influencer que parecía “safe” para US según ciertos indicadores, tenía asociaciones problemáticas en el mercado ruso que la IA simplemente no capturaba.
El problema: la IA se entrena en data disponible, y la data que existe para detectar fraude o riesgo de brand safety no es la misma en ambas regiones. Las señales de “autenticidad” que funcionan en US no son las mismas que en Rusia.
¿Cómo están ustedes combinando verificación automática con expertise humano local? ¿En qué puntos específicos dicen “aquí necesitamos que un experto hable con el creator” en lugar de dejarle todo a los algoritmos?
Este es exactamente el problema que más me preocupa en este espacio. La IA es excelente para detectar anomalías estadísticas—engagement extraño, patrones de followers inconsistentes—pero es pésima para entender contexto cultural y dinámicas locales.
Mi framework: usa IA para reducir el pool de creadores candidatos, pero implementá un gate humano de 2-3 niveles. Nivel 1: revisor local de cada mercado hace un screen cualitativo rápido (15 min máximo). Nivel 2: para creadores top (los que consumen 80% del presupuesto), una conversación con alguien que entienda tanto la cultura como los riesgos de brand safety. Nivel 3: para campañas sensibles, audit completo.
Costo: sí, aumenta en un 20-30%. Pero el ROI de evitar un disaster de brand safety es infinito. He visto marcas quemadas por $50k de savings mal colocados.
Coincido con Mark. En mi agencia hacemos exactamente esto. Lo que agregamos: documentamos cada decisión de vetting en un sistema centralizado. Así, cuando vuelve un creador en una campaña futura, ya tenemos history y podemos acelerar. La IA nos sugiere el riesgo, el equipo local valida o rechaza, y capturamos el resultado.
Después de 6 meses, empezamos a ver patrones. Ciertos flags de IA eran ruido en ambos mercados, mientras que otros eran realmente predictivos. Con esa data, refinamos qué le delegamos a IA y qué dejamos solo para humanos.
También: nunca hagas brand safety audit solo en inglés. Tengan al menos una persona que lea contenido original en ruso/idioma local. Muchas cosas se pierden en traducción.
Desde mi perspectiva, lo que me molesta es que la IA a veces me flags como “riesgosa” por things que simplemente son malinterpretaciones culturales. Como, hago chistes que suenan punchy en ruso pero cuando se traduce automáticamente, suena ofensivo en inglés.
Mi advice: hablen con los creadores. No solo auditen su content pasado. Pregúntenles: ¿cuál es tu posición sobre X tema? ¿Cómo manejas criticism? Los mejores brands que conozco hace eso primero, y la IA es solo un sanity check después.
Además, si van a usar expertos locales, denles autonomía real. No los dejes de rubber stamp. Si un expert ruso te dice “este creator no es seguro,” escúchalo, no lo debatás con un algoritmo.