Hemos movido todo nuestro proceso de vetting de influencers a través de una herramienta de IA que escanea señales de fraude—followers growth patterns, engagement velocity, comentario authenticity, etc. Pero últimamente he estado cuestionando qué tan verdaderamente confiables son estas señales, especialmente cuando trabajamos cross-market.
La semana pasada, la herramienta de IA nos marcó a un influencer de mercado hispanohablante como “alto riesgo de audiencia fraudulenta” porque sus growth pattern no coincidía con lo que el modelo esperaba. Cuando investigamos manualmente, descubrimos que su spike de followers fue completamente legítimo—un video fue viral después de que una personalidad importante lo compartió. La IA vio el patrón anómalo y simplemente asumió fraude.
Esto me hace preguntar: ¿cuáles son realmente las señales de fraude que funcionan de forma confiable, y cuáles son solo estadística patterns que pueden coincidir con comportamiento legítimo? Porque si estamos rechazando creators basado en falsos positivos, estamos perdiendo asociaciones genuinas.
Además, cuando cruzas mercados—latam, US, Europa—los patterns de growth y engagement normales son bastante diferentes. Un creator latino con 50K followers puede tener engagement rates que un modelo estadounidense marca como “inusualmente alto”, pero es completamente normal en ese contexto.
¿Cómo están ustedes calibrando detección de fraude para no acabar en rabbit hole de falsos positivos?
Esto es exactamente donde muchas agencias se equivocan. Ven una herramienta de IA que dice “fraude” y asumen que es definitivo. Pero como dijiste, hay muchos falsos positivos.
Nuestra aproximación: usamos herramientas de IA para flagging inicial, pero cualquier resultado “alto riesgo” requiere validación manual. Miramos historico de partnerships, comentarios reales (no solo conteo), engagement patterns en posts recientes vs antiguos. Un spike genuino vs bots es diferente—uno es concentrado en un período específico, el otro es más uniform y artificial.
Para cross-market, hemos creado benchmarks locales. No comparamos un creator de Latam directamente contra normas estadounidenses. Eso es error fundamental que cometen muchas herramientas de IA.
Mi experiencia: confiamos en herramientas de IA para screening quick, pero no para vetting final. Especialmente con creadores emergentes o en mercados donde el comportamiento es menos “predecible” según modelos entrenados principalmente en datos occidentales.
Desde el lado de los creators, puedo decirte que muchos de nosotros experimentamos spike legítimos en growth. A veces un post simplemente resonas, o una plataforma te promueve, o viralizas. Que una herramienta marque eso como fraude es frustrante porque sabemos que es real.
Creo que lo que necesita cambiar es que las herramientas deberían considerar CONTEXTO. ¿Coincidió el spike con un evento? ¿Con un post específico que resonó? ¿Hubo colaboración con otro creator? Eso es fraude indicador legítimo vs patrón anómalo.
También, diferentes plataformas tienen diferentes dinámicas. TikTok es viral, Instagram es más gradual. Twitter puede ser spike rápido. La IA debería entender eso.