Detectar fraud en influencers: ¿qué señales realmente funcionan y cuáles son falsas alarmas?

He estado revisando herramientas de detección de fraud en influencers y he notado que muchas de ellas triggerean alertas que son… falsas alarmas.

Por ejemplo: He visto plataformas flaggear a influencers porque tienen “patrones de engagement anormales.” Cuando investigué, descubrí que el influencer simplemente compartió contenido que viralizó un día. Eso generó un pico de engagement que fue “estadísticamente anormal,” pero no era fraud, era solo un post exitoso.

Otro ejemplo: Influencers con audiencia internacional tienen patrones de engagement diferentes que influencers locales. Si el modelo está entrenado en audiencia puramente local, flaggea el internacional como fraudulento sin razón.

Aquí está lo que hemos visto realmente funcionar para detectar fraud:

Señales que funcionan:

  • Tasas de crecimiento de followers que son imposibles (1000 nuevos followers por día, consistentemente)
  • Comentarios que son claramente automatizados o en idiomas que no matchean la audiencia presumida
  • Engagement que sigue un patrón perfecto (exactamente 8% engagement, consistente, en cada post—demasiado perfecto)
  • Una audiencia que no es geográficamente consistente con el claim del influencer

Señales que generan falsas alarmas:

  • Pico de engagement después de un post viral—esto es legítimo
  • Audiencia internacional cuando el influencer es global—esto es legítimo
  • Tasas de engagement altas—esto podría ser simplemente autenticidad

Mi pregunta: ¿Cómo estáis entrenando vuestros modelos de detección de fraud? ¿Estáis incorporando estos falsos positivos o simplemente flaggeando todo lo que se ve “anormal”?

Excelente pregunta sobre falsos positivos en detección de fraud. Este es un problema real que hemos enfrentado.

En mi empresa, invertimos en entender la diferencia entre “anormal” y “fraudulento.” Anormal ≠ fraude.

Nuestro enfoque:

1. Definición clara de “fraud”
No es: engagement variable, crecimiento bursátil, audiencia internacional.
Es: evidencia de manipulación intencional (comprar followers, usar bot rings, etc.)

2. Señales de fraude que validamos manualmente:

  • Seguidor nuevos con accounts privadas o sin contenido: indicador de bot
  • Comentarios de engagement cuyo texto es idéntico entre múltiples posts: indicador de bot
  • Crecimiento de followers que coincide exactamente con peaks de engagement: posible compra de followers
  • Fuentes de followers que no matchean geografía presumida: indicador de compra

3. Lo que NO es fraud:

  • Variabilidad en engagement
  • Audiencia internacional
  • Posts que se viralizan

4. Nuestro proceso de validación:
Cualquier red flag automática requiere validación manual de al menos 2 data points adicionales. Nunca descartamos a un influencer basado en una sola métrica anómala.

Resultado: Identificamos influencers fraudulentos con ~92% accuracy, y evitamos descartar legítimos.

Consejo crítico: Si una herramienta de detección de fraud no te muestra por qué flaggeó algo, sé muy escéptico. La mayoría de alertas automáticas generan falsos positivos.

Mark tiene razón sobre diferencia entre “anormal” y “fraudulento.” Agregaria un punto: el contexto del influencer importa.

En mi agencia, cuando revisamos presuntos fraud flags, siempre preguntamos:

  1. ¿Qué pasó justo antes del “pico anormal” de engagement?
  2. ¿Tiene el influencer historial de posts que viralizan?
  3. ¿Fue mencionado por alguien más grande ese día?

He visto influencers flaggeados como fraudulentos simplemente porque fueron mencionados por un influencer 10x más grande. Eso generó pico de engagement “anormal.” Pero no era fraud.

Mi sugerencia para cualquiera usando herramientas de detección automática:

  1. Entiende qué métricas usa
  2. Spot-check regularmente: toma 10 influencers flaggeados, investiga manualmente
  3. Calibra lo que es “normal” para el nicho específico

Por ejemplo, influencers de fitness típicamente tienen engagement rates 2x que influencers de política. Si aplicas los mismos thresholds, flaggeas a todos los fitness influencers como anormales.

Desde el lado del creador, he sido flaggeada como “probablemente fraudulento” por plataformas de análisis. ¿La razón? “Engagement rate inconsistente.”

La realidad: Mis posts que resonaban con mi comunidad generaban 12% engagement. Posts que no resonaban generaban 2%. Eso es simplemente la naturaleza de crear contenido auténtico.

Algunas semanas tengo más tiempo en crear contenido de calidad, otras estoy apretada. Eso afecta engagement.

Para marcas: aquellos que me contactan y dicen “tus métricas son inconsistentes” sin investigar más están demostrando falta de comprensión sobre cómo funciona crear contenido en la vida real.

El fraud es real (bots, followers comprados). Pero inconsistencia ≠ fraud. Inconsistencia es humanidad.

Stick con influencers que ustedes conocen o que tienen referencia de otros marketers. Confíen más en relaciones que en flags automáticos.