He estado en ese lugar incómodo donde sabía que algo estaba mal en un perfil de influencer—el engagement no tenía sentido, los followers parecían bot–pero no podía probar nada. Todo lo que tenía eran hunches.
Conozco personas que usan herramientas de “detección de fraude” que escanean followers falsos, cuentas duplicadas, patrones sospechosos. Algunos de esos puntos tienen evidencia real detrás. Pero otros? Son basically estadística que suena legítima.
Lo que me complicó más fue trabajar cross-market. Las señales de fraude que significan algo en la audiencia rusa pueden significar algo completamente diferente en audiencia estadounidense. Tasas de engagement normales difieren. Patrones de comportamiento de followers difieren. Entonces cuando una herramienta me dice “este influencer es 67% riesgoso” sin contexto de mercado, ¿realmente puedo confiar en eso?
He visto a gente construir workflows complejos de brand safety donde basicamente automatizaban “flags” de riesgo en deals. Y está bien cuando funciona. Pero también he visto false positives bloquear influencers legítimos porque el modelo no entendió contexto cultural.
¿Cómo separas lo que realmente importa de lo que es solo ruido? ¿Y cómo lo haces cuando crossas idiomas y mercados?
Excelente pregunta porque toca la diferencia entre correlation y causality en detección de fraude.
Aquí está mi framework: las señales realmente confiables de fraude son behavioral—patrones que no puedes replicar masivamente sin ser detectado. Cosas como:
- Engagement timing: Si 80% de comments llegan en ventanas de 2 horas específicas, eso es un signal. Los bots tienen patrones temporales predecibles.
- Follower velocity: Si alguien crecimiento 50K en una semana sin contenido viral, problema.
- Audience composition shifts: Si de repente 10K followers nuevos vienen de un país donde nunca tuviste reach, eso es sospechoso.
Pero engagement rate solo? Haters. Eso varía por niche, por mercado, por algoritmo.
En mercados bilaterales, lo que hago es entrenar modelos por región SEPARADAMENTE primero. Así establezco baselines normales por mercado. Luego, flageo outliers dentro de sus propios baselines, no contra benchmarks globales.
False positives matarán tu programa. Mejor ser conservador y perder algunos deals que bloquear legitiminos creators.
En la agencia, nuestro proceso es más simple pero funciona: tenemos una lista de “green flag checks” que aplicamos antes de incluir a alguien. No es automatizado porque exactamente lo que dices—la IA puede darme percentiles pero no me da contexto.
Nuestros checks son:
- ¿Puedo encontrar rastro de este creator legítimamente fuera de plataforma? (website, otros socials, cobertura de medios)
- ¿Sus followers tienen actividad consistente en otros contenidos, no solo en posts patrocinados?
- ¿El engagement distribuido naturalmente o todos los comments son genéricos/bot-like?
Es trabajo manual, pero rápido. Y después tenemos un pequeño warning system para patterns que VEMOS durante collaboration—si algo se siente off, lo notamos rápidamente.
Para multiregión: usamos partners locales que realmente entienden el mercado. No reemplazo eso con herramientas.
Desde el lado de creator, lo que me frustra es que estos “fraude detection” systems a veces no distinguen entre creators legítimos que usan growth services (que es normal) y outright bots. Yo he comprado followers estratégicamente en ciertos momentos, y honestamente la mayoría de creators lo hacemos. Pero si estás evaluándome solo on metrics, eso podría marcarme como fraud.
Lo que SÍ es red flag: si mi engagement es PURO vanity—números que no convierten, commentarios que son gibberish. Eso es fraude real. Pero engagement rate baja pero consistente? Puede ser que estoy construyendo audiencia más lentamente.
Mi consejo: hablen con los creators que estén considerando. Una conversación de 10 minutos te dice más que cualquier herramienta. Y sí, en mercados diferentes la gente tiene expectativas distintas de cuál es “normal.”