Quiero hablar algo incómodo: creo que la IA para detección de fraude y autenticidad de influencers tiene un problema real en mercados bilingües, y no es porque la tecnología sea mala. Es porque el fraude mismo es diferente en cada región.
He estado analizando fallos de detección. Un algoritmo puede ver que un influencer tiene un patrón de engagement que parece sospechoso: picos extraños, seguidores que no se alinean con el engagement. Eso dispara una “bandera de fraude”.
Pero cuando profundizas, a veces eso es simplemente cómo funciona el mercado de influencers en esa región. O es cómo ese público específico interactúa con el contenido. O el influencer creció de una forma legítima pero no convencional.
Lo que necesito entender es: ¿cómo diferenciáis entre ruido legítimo del mercado local y fraude real? ¿Qué señales estáis usando?
E incluso más importante: cuando trabajáis en dos mercados simultáneamente, ¿cómo calibráis vuestros modelos de detección de fraude? ¿Usáis los mismos parámetros? ¿Completamente separados? ¿O algo más sofisticado?
Estoy tratando de construir un proceso que realmente pueda distinguir entre un influencer auténtico con patrones de crecimiento un poco raros, versus alguien que está comprando engagement.
Este es probablemente el tema más frustrante que hemos enfrentado. La detección de fraude es mucho más ciencia que arte, pero todavía hay mucho arte.
Lo que funciona para nosotros: no usamos un modelo de fraude único. Primero, separamos por mercado porque, como dices, lo que se ve como “sospechoso” en US podría ser completamente normal en un mercado hispanohablante.
Luego, por cada mercado, miramos múltiples señales independientes: patrones de crecimiento, calidad de engagement (no solo cantidad), análisis de la audiencia, historial de asociaciones anteriores. Si una sola señal dispara, no condenan al influencer. Ese es el error que comete mucha IA: un disparo = veredicto de fraude.
La verdadera autenticidad requiere validación manual. Especialmente en mercados bilingües donde los datos históricos de referencia son más limitados.
Como creadora, esto me afecta directamente. He visto gente acusada de comprar seguidores cuando simplemente tuvieron un viral, o cuando su contenido atrajo a un público diferente al que tenían antes.
Lo que quisiera que los modelos entendieran es el cambio de contenido. Mi estrategia cambió hace 8 meses y mi engagement subió. Eso probablemente se ve como anómalo en un modelo que mira tendencias históricas. Pero es legítimo.
Para detectar fraude real, necesitáis expertos que entiendan la psicología del mercado local y los creadores reales. Un modelo de IA que no tenga ese contexto va a cometer muchos falsos positivos.
Esto es donde vemos el verdadero valor de una red de expertos bilingües. No es solo que puedan validar datos. Es que pueden contextualizar.
Hace poco revisamos un influencer que disparó nuestras alertas de fraude. Engagement bajó de repente, seguidores se plateauearon, la calidad del contenido en los últimos posts era inconsistente. Parecía claramente una cuenta que fue comprometida o que estaba vendiendo engagement a través de terceros.
Pero un experto en ese mercado específico nos dijo: “espera, este creador acaba de cambiar de manager de agencia, probablemente por eso ves inconsistencias”. Fue validado manualmente y fue verdad. El fraud score no habría captado eso.
Así que el proceso que recomiendo: IA como primer filtro agresivo. Luego expertos humanos como segundo filtro que entienden el mercado. No es más lento porque la IA automatiza lo fácil, y los humanos manejan lo nuanced.
Mark tiene razón. Diría que incluso agresivo. La IA nos ayuda a filtrar al 80% de casos obvios. El 20% restante requiere ojos humanos en ambos mercados. Y ese 20% es donde real money está, porque ahí es donde están los influencers autênticos que la competencia está ignorando porque sus modelos de fraude fueron demasiado estrictos.