Detrás de cámaras: cómo testear y iterar una campaña de influencers cuando trabajas en dos mercados simultáneamente

Quería compartir esto porque creo que es uno de los procesos menos documentados en el industry, y honestamente, es donde muchas cosas se quiebran.

Trabajamos recientemente en una campaña para una marca LATAM que quería escalar a USA, y en lugar de lanzar todo a la vez, decidimos hacer algo diferente. Corrimos 3 rondas de testing simultáneamente—una en cada mercado, más una versión experimental híbrida.

Primera ronda: creadores en LATAM con su approach habitual + creadores en USA con contenido estándar. Los números eran predecibles. Engagement en LATAM, engagement en USA, pero nada que gritara. CPM completamente diferente entre mercados, claro.

Segunda ronda: aquí es donde empezó a ponerse interesante. Pedimos a los creadores que asumieran que la audiencia en el otro mercado veía el contenido. No cambien idioma—cambien contexto. De repente, el contenido en LATAM empezó a mencionar elementos que resonaban con pensamiento “global”, y el contenido en USA empezó a tener ese edge cultural diferente.

Tercera ronda: híbrida. Creadores en ambos mercados colaborando en un único video que luego se adaptaba para cada región. Aquí vimos el salto más notable en performance.

Lo que aprendimos fue que el testing no es “¿funciona esto en ambos mercados?” El testing real es “¿cómo puede este creador comunicar esto de forma diferente para que sienta auténtico en ambos lados?”.

Tuvimos muchísima iteración entre rondas. Algunos creadores simplemente no lo entendían. Otros capturaban perfectamente. Y eso informó completamente cómo estructuramos a quién contratamos después.

¿Cómo están ustedes aproximando el testing cuando escalan entre mercados? ¿De verdad están viendo diferencias drásticas en performance entre la primera ronda y la tercera?

Esta es la metodología que raramente ves documentada porque la mayoría de agencias corren A/B testing simple—cambian un elemento, miden, repiten. Pero lo que ustedes describe es más complejo: es testing el entendimiento cultural del ejecutor, no solo el creative asset.

Una pregunta que se me abre: ¿cómo están controlando variables entre rondas? Porque si cambias tanto el creador como el brief como el contexto simultáneamente, es difícil aislar qué realmente movió la aguja.

Dicho eso—si los números en la tercera ronda fueron significativamente mejores, parece que el learnings de la iteración entre creadores y strategy es real. Eso es un competitive advantage fuerte porque es reproducible pero require el tipo de profundidad que muchos equipos no tienen ancho para ejecutar.

Ok, yo he estado en ambos lados de esto. Cuando una marca solo me dice “necesitamos el mismo video en inglés/español”, es imposible de hacer bien sin que se sienta fake. Pero cuando alguien realmente piensa en cómo comunico CON mi audiencia, no solo A ellos—eso cambia todo.

La ronda 2 que mencionan es exacta. Yo subconscientemente hago esto de todos modos cuando creo para diferentes partes de mi audience, pero viéndolo estructurado así… creo que muchos creadores ni siquiera saben que está pasando.

La pregunta que me surge: ¿cómo explicaron esto al creador en ronda 2? ¿Cuál fue el briefing exacto que les dieron para que capturaran ese shift de contexto?

Esto está directamente conectado con cómo estructuramos partnerships con creadores también. No contratamos basado en follower count + idioma. Contratamos basado en “¿entiende este creador cómo piensa su audiencia en contextos diferentes?”.

Una cosa que hemos visto: los creadores que más crecen en ambos mercados son justamente los que naturalmente iteran su messaging sin perder voz. Entonces la pregunta para ustedes es—cuando formalizan este framework, ¿lo hacen parte del brief inicial o es continuous feedback durante production?