Как я разобрал расхождение в ROI между двумя рынками и нашел систематическую ошибку в своей методологии

Привет, коллеги. Хочу поделиться историей, которая изменила то, как я смотрю на кросс-маркетную аналитику.

Несколько месяцев назад я запустил одинаковую кампанию с инфлюенсерами в России и США. На бумаге это были параллельные кампании с похожим бюджетом. Но ROI отличался на 40%, и я не мог понять почему. Оба инфлюенсера работали честно, контент был хорошим, но результаты разнились.

Тогда я начал разбирать атрибуцию. И вот что я обнаружил: я приписывал конверсии инфлюенсеру в России на основе click-through за последние 24 часа, а в США использовал 7-дневное окно атрибуции. Получается, что часть конверсий в США я неправильно считал—они были результатом более длительного customer journey.

Когда я выровнял окна атрибуции и способ подсчета, ROI выровнялось. Оказалось, что оба инфлюенсера работали примерно одинаково хорошо.

После этого я установил правило: для каждого рынка я определяю один способ подсчета, один временной интервал, одну дефиницию конверсии, и только потом сравниваю. Теперь расхождения в ROI либо реальные, либо я их быстро понимаю.

Хотелось бы услышать: какие систематические ошибки в атрибуции вы находили в своих кампаниях? Есть ли у вас стандартный процесс для проверки методологии перед сравнением результатов?

Это прямо то, что я пытаюсь объяснить коллегам уже несколько месяцев. Окна атрибуции—это не просто техническая деталь, это фундамент всей аналитики. Я нашла похожую ошибку: я считала конверсии в России на базе Яндекс.Метрики (которая использует один алгоритм атрибуции), а в США на базе Google Analytics (совсем другой алгоритм). Даже если я засняла одно и то же действие, числа расходились. Теперь я вызываю себе скрипт, который нормализует атрибуцию перед любым кросс-маркетным анализом. Кстати, в каком формате ты это dokumentируешь для команды? Мне интересно, как это объяснить так, чтобы не-аналитики это понимали.

Вау, это объясняет много. Мы недавно нанял команду для управления US кампаниями, и когда я сравнивал их результаты с российской командой, казалось, что американцы ленивы или неправильно выбирают инфлюенсеров. Но я подозревал, что дело не в этом. Теперь понимаю, что это была ошибка методологии. Я буду требовать от обеих команд одинаковый фреймворк до того, как что-то их критиковать. Спасибо, что поделился этим—это как-то разрешает конфликт, который у меня был в голове.

Это такая важная тема для тех, кто работает над партнёрствами между российскими и западными брендами! Когда я представляю российского инфлюенсера западному бренду или наоборот, мне нужно убедиться, что обе стороны смотрят на одинаковые метрики. Иначе партнёры начинают сомневаться друг в друге. Твой подход со стандартизацией—это как раз то, что помогает партнёрствам быть честными и прозрачными. Может быть, есть смысл создать в нашем сообществе набор best practices по атрибуции?

Это абсолютно критично для управления клиентских отношений. Когда я начал работать с клиентами, которые хотели кампании на обоих рынках, я думал, что самое сложное—это найти хороших инфлюенсеров. Оказалось, что самое сложное—это позже объяснить клиенту, почему ROI не совпадает. Твой процесс—это ровно то, что нужно. Я по-прежнему много раз сталкивался с ситуациями, когда я что-то считаю одним способом, а мой партнер—другим, и потом мы спорим о числах, вместо того чтобы обсуждать стратегию. Теперь я буду требовать всего этого в письменном виде до начала кампании.

Я не аналитик, но это мне кажется очень важным. Когда я работаю с бредами, которые работают на обоих рынках, они часто приходят ко мне и говорят: “Твой ROI в России выше. Почему бы нам не сосредоточиться только на России?” А потом выясняется, что это просто разные системы подсчета. Мне нравится твой подход, потому что это честнее. Если я знаю, что мы все считаем одинаково, я спокойнее.

Excellent breakdown. Attribution window is one of the fundamental sources of variance in cross-market reporting, and most people don’t dig deep enough to find it. I’d add another layer: customer journey length varies by market. US customers might take longer to decide, Russia faster. So a 24-hour window might actually be wrong for both markets. What I recommend is looking at your median time-to-conversion for each market separately first, then deciding on an attribution window that actually reflects how customers behave. Have you mapped out the typical customer journey length for each market?