Esto es el verdadero dilema operativo. Tengo un caso en mente: trabajamos con un cliente DTC que quería escalar una campaña de influencers entre mercados. En LATAM fue un éxito rotundo. Engagement masivo, conversión increíble, el cliente estaba feliz. En USA? Medio. Los números fueron decentes pero no era el mismo impacto.
Ahora, cuando llega el momento de documentar este “caso de éxito”, ¿qué hacemos? ¿Lo presentamos como un éxito porque el promedio fue positivo? ¿Lo dividimos en dos casos distintos? ¿Contamos solo la parte que funcionó?
Creo que aquí es donde muchas agencias toman atajos. Documentan una historia bonita que mezcla ambos mercados y ocultan las complejidades. Nosotros empezamos a hacer algo diferente.
Ahora documentamos la verdad: qué funcionó, por qué, y dónde no funcionó y por qué. Es más largo, menos “sexy”, pero es infinitamente más útil para el próximo cliente.
En este caso específico, el breakdown fue:
- LATAM: el creador tenía una conexión emocional profunda con su audiencia. El contenido UGC se sintió auténtico.
- USA: el mismo contenido se sintió demasiado casual para esa audiencia. La propuesta de valor necesitaba ser más clara.
Entonces el “caso de éxito” no es “escalamos de LATAM a USA”. Es “aprendimos que la autenticidad funciona diferente en cada mercado, y aquí está cómo ajustamos”.
Me interesa mucho cómo ustedes navegan esto: ¿prefieren documentar un caso como un éxito pulido, o se sienten más cómodos siendo honestos sobre dónde fue bien y dónde fue menos bien?
Esta es una pregunta incómoda pero importante. Honestamente, la tendencia en la industria es pulir demasiado. He visto agencias con case studies que cuentan solo la mitad de la historia.
Lo que hemos hecho en mi agencia es cambiar el formato del case study. Ahora incluimos: objetivo, ejecución, resultados por mercado (separados), learnings, y ajustes que haríamos. Es más transparente, y lo interesante es que nuestros clientes potenciales respetan mucho más eso.
De hecho, los mejores leads ahora vienen porque mostramos que sabemos dónde las cosas pueden no funcionar y tenemos systems para eso. Parece contra-intuitivo, pero builds trust increíble.
La pregunta es: ¿eso les cuesta deals cuando documentan honestamente que algo no funcionó en un mercado?
Como creadora, me encanta cuando una agencia es honesta sobre esto. Significa que saben lo que está pasando realmente.
He trabajado en campañas donde los números fueron buenos en un mercado y flojos en otro, y las agencias que explicaban por qué en lugar de esconder los números—esas son las que vuelvo a contratar.
Porque significa que next time, van a optimizar basándose en insights reales, no en una historia bonita.
Mi tip: cuando documenten, pregúntele al creador qué observó en cada mercado. Nosotros vemos cosas que los datos no muestran.
Desde lado estratégico, esto es crítico. Los case studies incompletos son responsables de expectativas mal calibradas.
Cuando un cliente potencial ve resultados de LATAM pero no sabe que USA fue diferente, llega con expectativas basadas en números incompletos. Luego, cuando ejecutamos, la realidad es diferente, y el cliente está decepcionado.
Lo que yo recomendaría: documentar con una estructura clara. Resultados por mercado, siempre. Y luego una sección de “learnings” que explique las diferencias. Eso te posiciona como alguien que entiende la complejidad, no como alguien que tienen un success story flashy.
¿Cómo presentan ustedes esas diferencias de resultados en propuestas a clientes nuevos? ¿Eso afecta cómo calibran expectativas?