Estoy frustrado. Literalmente. Acabo de tener dos campañas este año donde los números de la IA se veían perfectos—engagement high, demografía correcta, alineación de marca visible—pero cuando lanzamos, fue como lanzar al vacío.
Lo que pasó en ambos casos fue similar: el creador tenía números buenos en ambos idiomas, pero la audiencia no se convertía. Después de analizar post-mortem, me di cuenta de que la IA me estaba mostrando volumen, no calidad. Un creador podría tener 50k seguidores rusos y 30k estadounidenses, pero eso no significa que sus comunidades sean reales o que el solapamiento sea auténtico.
Ahora estoy intentando identificar qué señales realmente importan. ¿Es el ratio de engagement por idioma? ¿La coherencia temporal de las publicaciones? ¿Qué tan frecuentemente un creador alternaba entre idiomas sin parecer forzado?
Me interesa saber: ¿cuáles son las señales que ustedes realmente validan antes de proponer a un creador para una campaña bilingüe? ¿Qué les ha quemado en el pasado?
Te voy a dar la perspectiva del creador porque esto es importante: cuando una marca viene a mí y veo que me encontraron a través de IA, inmediatamente puedo reconocer si el algoritmo entiende realmente quién soy o solo ve números.
Las campañas que MÁS facilito son aquellas donde la marca claramente investigó mi contenido en ambos idiomas y vio que no fuerzo nada. Mi contenido en ruso es diferente porque mi comunidad es diferente. No es que tenga una voz fake en un idioma y otra en el otro.
Sí me importa que una herramienta de IA vea:
- Engagement por idioma es diferente—y eso está bien
- Mis comentarios en inglés vs. ruso: ¿son comunidades genuinas o bots que cambio de idioma?
- Mi contenido colaborativo: ¿con quién trabajo en cada market? ¿Hay coherencia?
Los creadores ficticios no tienen respuesta a esas preguntas. Los reales, sí.
Aquí está lo que hemos estado rastreando internamente para evitar exactamente lo que te pasó. Cuando evaluamos un creador bilingüe, miramos:
Señal 1: Coherencia de audiencia. ¿El solapamiento de followers entre idiomas es natural? Si alguien tiene 80k en ruso y 80k en inglés pero zero solapamiento, eso es una bandera roja.
Señal 2: Velocidad de respuesta en comunidad. Un creador auténtico que maneja dos comunidades respondará en ambos idiomas. Si responde solo en uno, eso sugiere que uno de los lados no es tan prioritario.
Señal 3: Histórico de colaboraciones. ¿Dónde ha trabajado antes? ¿Tienen track record con marcas en ambos mercados o solo en uno?
El problema es que muchas herramientas de IA no priorizan estas señales. Están optimizadas para speed, no para profundidad. Así que nosotros corremos esos análisis después de que la IA hace el narrowing inicial.
Creo que parte del problema es que estamos usando metrics de single-market para evaluar creators multi-market. Eso es técnicamente posible pero estratégicamente incorrecto.
Lo que hemos estado experimentando es entrenar modelos separados para cada idioma, luego usar un modelo meta que entienda cómo esos dos modelos interactúan. Suena complejo, pero básicamente significa: IA evalúa engagement en ruso, IA evalúa engagement en inglés, y luego otra IA pregunta: ¿cuán consistente es este creador entre ambos mundos?
Una señal que realmente importa: autenticidad temporal. Un creator real tiene patrones. Podría tuitear en ruso a las 8am, en inglés a las 6pm, porque tiene diferentes audiencias con diferentes horarios. Un creator falso o que solo juega números, no tiene eso.
Ultimamente, hemos visto que si la herramienta no puede identificar estos patrones, es mejor hacer la auditoría manual. Es más lento, pero los ROI que hemos visto después juegan por sí solos.
Y una pregunta para ti: ¿en esos dos casos que fallaron, analizaste qué específicamente no se convirtió? ¿Era el producto, el messaging, el timing? Porque a veces la IA identifica al creador correcto pero la campaña en sí tiene problemas. Necesitamos saber si fue descubrimiento o ejecución.