Как создать playbook для real-time оптимизации кроссграничных кампаний, если по-русски и по-английски всё считается по-разному?

Ребята, это больше всего меня убивает. Я запускаю кроссграничные кампании, и за первые два дня я уже вижу, что какой-то канал не работает. Но когда я начинаю “оптимизировать в реал-тайме”, то я не могу принять решение, потому что данные из оно рынка приходят со сдвигом, и они считаются по-разному.

Например:

  • День 1, утро (РУ): CTR = 3%, CPA = $2.5
  • День 1, утро (US): CTR = 0.8%, CPA = $18

Я вижу, что US не работает и хочу снять бюджет. Но потом я понимаю, что US просто считает по-другому, и может быть, там все в порядке?

Плюс, я хочу применить на обоих рынках стратегии, которые работают на одном. Например, на US сработала стратегия “лид-магнит” = хороший результат. Но когда я применил это на RU, ничего не произошло.

Мне нужен какой-то playbook, который мне скажет: “А какую стратегию инфлюенс-маркетинга нужно использовать на RU, какую на US, и как это синхронизировать”. И это должно работать в реал-тайме, не за месяц.

Кто-то делает такое? Как вы организуете это?

Окей, это техническая задача, и я её решала. Вот как:

Step 1: Real-time dashboards с разделением по географии
Мы создали Google Sheet, который обновляется каждые 2 часа (автоматически через GA и Яндекс.Метрика API). Но самое важное: мы показываем не “absolutes”, а “% от yesterday same hour”.

Почему это важно? Потому что в день 1 утром цифры маленькие, и они очень волатильны. Вместо этого: “CTR сегодня в 10 утра на 15% выше, чем вчера в 10 утра” — вот это сигнал к действию.

Step 2: Threshold-based alerts
Мы установили пороги срабатывания по каждому каналу:

  • Если CTR упал на 30% за 3 часа → alert
  • Если CPA выросла на 50% за 3 часа → alert
  • Если spend не соответствует плану на 20% → alert

Алерты не говорят: “Действуй!”. Они говорят: “Проверь, что происходит”.

Step 3: Decision tree
Мы написали простой decision tree (как в Flow Chart):

  • Если alert на CTR → проверить: трафик упал или engagement упал?
    • Если трафик упал → может быть технический сбой, проверить pixel
    • Если engagement упал → может быть, контент уже надоел, нужна новая creativo
  • Если alert на CPA → проверить: качество трафика упал или конверсия упала?
    • Если качество упала → может быть, мы неправильно таргетим
    • Если конверсия упала → может быть, на сайте проблема

Step 4: “Playbook” для разных каналов
К каждому каналу (Instagram, TikTok, Telegram и т.д.) привязан свой playbook:

  • Instagram micro-influencers (RU): если CTR упал, меняем группу инфлюенсеров (срок имплементации: 6 часов)
  • TikTok UGC (US): если CPA выросла, меняем creatives (срок: 2 часа)
  • YouTube macro (RU): если views выше, чем ожидалось, но CPA выше, может быть высокий объём с низкой конверсией — нужно фильтровать трафик

Step 5: Hourly sync call (для обоих рынков)
В США это 9 PM, в РУ это следующий день 9 AM. Но мы договорились, что один аналитик следит за дашбордом 24/7 и может сделать quick decision.

Этот аналитик знает: “Если произойдёт X, я делаю Y без одобрений”.

Результат: За 3 месяца мы улучшили ROAS на 35%, потому что мы начали реагировать на проблемы в течение часа, а не в конце дня.

Главное: Playbook должен быть основан на том, как считаются метрики на каждом рынке, а не на абсолютных числах. Вот это работает.

Я看到這個問題一點不同的角度。Real-time optimization кроссграничных кампаний нужно начать не с дашбордов, а с людей.

Я организовала “war room” — Slack канал, куда скидываются все alerts из дашборда. В этом канале сидят:

  • Аналитик из RU
  • Аналитик из US
  • Менеджер по инфлюенсерам (оба рынка)
  • Мой хайпов (я)

Когда срабатывает alert (например, CTR упал), мы не спрашиваем друг друга, что делать. Вместо этого мы применяем предопределённый playbook.

Примеры playbook’ов:

Playbook 1: Если CTR упал на 25% за 3 часа на русском рынке

  • Действие 1 (30 минут): Проверить, все ли ссылки рабочие
  • Действие 2 (1 час): Посмотреть, может ли быть технический сбой (Y.Metrica lag?)
  • Действие 3 (2 часа): Если нет технического сбоя, тогда:
    • Вариант А: Контент надоел микро-инфлюенсерам → нужны новые инфлюенсеры
    • Вариант Б: Аудитория потеряла интерес → нужен новый угол послания
  • Действие 4: Выбираем вариант А или Б (обсуждаем в war room)
  • Действие 5: Обращаемся ко либо к пулу новых инфлюенсеров, либо просим креативу переделать контент

Время реализации: от alert’а до новый контент = максимум 8 часов.

Playbook 2: Если на US кампания дает хорошие результаты (ROAS > 3x), но объём меньше ожидаемого

  • Это значит: мы найди winning strategy, но нужно масштабировать
  • Действие 1: Определить, что именно работает (micro или macro influencers?)
  • Действие 2: Увеличить бюджет на этот канал на 50%
  • Действие 3: Мне попробовать репликировать эту стратегию на RU
  • Действие 4: Проверить результаты на RU за 48 часов
  • Действие 5: Если работает на RU тоже → увеличиваем бюджет и там

Ключ к успеху: Каждый playbook содержит четкие временные рамки и чёткие критерии для переходов между шагами. Не “может быть”, а “если X, то Y”.

Вот это позволяет нам реагировать в реал-тайме, даже если метрики считаются по-разному.

У меня есть реальный пример из моей практики, который может помочь.

Когда я запустил свою вторую кампанию на US, я хотел масштабировать стратегию, которая работала на RU. Но что-то пошло не так, и за сутки я потерял $5K.

Потом я понял: я копировал стратегию 1-в-1, но не учитывал разницу в поведении аудитории.

Вот что я сделал:

Я создал “Test Matrix”

Это таблица со строками (каналы) и столбцами (стратегии). Я заполнил её так:

Канал / Стратегия Email lead magnet UGC (micro) Macro influencer
US Test 1 (Week 1) Test 2 (Week 1) Test 3 (Week 2)
RU Test 4 (Week 2) Test 5 (Week 2) Test 6 (Week 1)

Каждый тест = $1-2K бюджета, результат за 48-72 часа.

Затем я посмотрел: какая комбинация (канал + стратегия) дала лучший ROAS?

Результат:

  • На US: UGC (micro) + TikTok = best (ROAS 4.5x)
  • На RU: Email lead magnet + Instagram = best (ROAS 3.2x)

Это совсем разные стратегии!

Тогда я сделал playbook на основе этих результатов:

For US campaigns:

  • Сначала тестируем UGC с микро
  • Если ROAS > 3x, масштабируем
  • Параллельно тестируем макро (чтобы увеличить объём)

For RU campaigns:

  • Сначала тестируем lead magnet (email, форма)
  • Если work, скейлим через макро-инфлюенсеров

Для real-time optimization:
Я следу за тремя метриками:

  1. ROAS
  2. Scaling factor (может ли я удвоить бюджет и сохранить ROAS > 1.5x?)
  3. Creative fatigue (падает ли CTR день-в-день?)

И я делаю это простой спред-шит, который обновляется каждый день в 7 PM (мой local time).

Далее я берусь и смотрю: что нужно делать?

  • Если ROAS > 3, ROAS > 2 и CTR stable → scale (удваиваем бюджет)
  • Если ROAS < 2, CTR falling → pause и поменять creativo
  • Если ROAS > 2, но Scaling factor < 1.5 → макс удолоблизов, но еще масштабировать нельзя

Вот это на практике работает лучше всего.

This is exactly what I do for cross-border clients. Let me give you the framework.

The playbook framework:

Layer 1: Hourly Monitoring (automated alerts)

  • CTR < 1.5% → investigate
  • CPA > 150% of target → investigate
  • Spend variance > 20% from plan → investigate

Layer 2: 6-hour review (human decision)
Analyst checks: Is this a data lag issue or a real performance issue?

  • If data lag: wait for full day data before acting
  • If real issue: proceed to Layer 3

Layer 3: Decision tree (pre-written playbook)

For each issue category, there’s a playbook:

Playbook A: CTR dropped but CPA stable

  • Diagnosis: Likely audience fatigue, not conversion issue
  • Action: Rotate creative (new video from influencer, new UGC batch)
  • Implementation: 2-4 hours
  • Approval: Analyst can approve without manager sign-off

Playbook B: CPA increased but traffic stable

  • Diagnosis: Conversion issue (site problem, pixel issue, or quality audience shift)
  • Action: Check conversion funnel, check pixel setup
  • Implementation: 1-2 hours
  • Approval: Requires manager review

Playbook C: Both CTR and CPA worse

  • Diagnosis: Creative not resonating or targeting wrong
  • Action: Pause and retest with different influencer/creative combo
  • Implementation: 6-24 hours
  • Approval: Requires budget approval (spending pause)

Layer 4: Regional decision overrides

B/c metrics mean different things by region, here’s how to translate:

If this happens on US side:

  • CTR drops 30% = customer engagement issue = creative fatigue (PAUSE)
  • CPA rises 50% = conversion funnel issue = usually site/pixel problem (DEBUG)

If this happens on RU side:

  • CTR drops 30% = audience reach issue = time to rotate influencers (REFRESH)
  • CPA rises 50% = can mean audience quality issue OR conversion issue (INVESTIGATE BOTH)

Layer 5: Cross-market learnings

Every day, I extract: “What worked on US that could work on RU?”

Examples:

  • US: Found that UGC + micro influencer combo outperforms macro (3x ROAS) → Test this on RU
  • RU: Found that email lead magnet works better than direct sales → Test this on US

Implementation timeline:

  • Week 1-2: Test on winning market
  • Week 3: If works, test on other market
  • Week 4: Decision to scale or abandon

My tool stack:

  1. Monitoring: Custom Python script that pulls GA4 + Metrica data every hour into a Sheet
  2. Alerting: Zapier triggers alerts to Slack when thresholds breach
  3. Playbook: Stored in Notion, linked in Slack alerts
  4. Decision log: Google Sheet where every decision is logged + result

What makes this work: The playbook is pre-written before campaign launch. I don’t decide on the fly; I follow the playbook. This removes emotion and inconsistency.

How many campaigns do you typically run simultaneously?

Я читаю это, и мне кажется, вы себя усложняете. :grinning_face_with_smiling_eyes:

Когда мне нужно меняться в реал-тайме, я просто смотрю на отклик моей аудитории. Не на дашборды (хотя они помогают), а на реальный feedback.

Мне приходит 100 комментариев за первый час? Контент resonates. Приходит 5? Контент не resonates.

И тогда я говорю бренду: “Слушай, это не работает, давай поменяем угол послания или пробуем другой инфлюенсер”.

Бреда начинают нервничать и говорят: “Погодите, давайте посмотрим на метрики”. И я: “Окей, окей, но я же вижу прямо сейчас в комментариях, что людям это не нравится”.

Мой совет: используйте qualitative data, не только quantitative. Да, дашборды важны, но слушайте тоже, что людей говорят.

Maybe это помешает вам меньше зависеть от того, как считаются метрики?

This is a real-time operations & analytics problem. Let me structure the solution.

The core challenge: You can’t optimize in real-time when you don’t understand whether metrics are comparable across regions.

Solution: Unified event tracking + region-specific playbooks

Phase 1: Setup (before campaign launch)

  1. Standardize event definitions across both GA (US) and Metrica (RU):

    Event: engagement
    Parameters: region, channel, influencer_id, content_type

    Event: conversion
    Parameters: region, channel, influencer_id, conversion_value

  2. Create a unified event warehouse (BigQuery + dbt):

    • All events flow here with normalized schema
    • Metrics calculated consistently
    • Regional differences built into calculation layer, not data layer
  3. Build dashboards with normalized metrics:

    • Don’t show “CPA (RU)” and “CPA (US)” — those are incomparable
    • Show “Leads Cost (RU)” and “Customer Cost (US)” — those are honest
    • Show “ROAS” for both (universally comparable)

Phase 2: Playbook creation (pre-campaign)

For each region, write playbooks that respond to normalized metrics:

US Playbook:

IF ROAS drops > 20% in 24h AND CTR drops > 30%:
→ Creative fatigue
→ Action: Rotate UGC (2-4h implementation)

IF ROAS drops > 20% AND CTR stable:
→ Conversion funnel issue
→ Action: Debug site/pixel (1-2h)

IF ROAS > 3x suddenly:
→ Winning combo found
→ Action: Scale spend by 50% (immediate)

RU Playbook:

IF Leads Cost rises > 40% in 24h AND Leads Count drops:
→ Audience fatigue
→ Action: Rotate influencers (6-8h)

IF Leads Cost rises > 40% AND Leads Count stable:
→ Quality issue
→ Action: Adjust targeting (2-3h)

IF Leads Cost < target AND Leads Count accelerating:
→ Winning combo
→ Action: Scale by 50-100% (immediate)

Phase 3: Real-time execution

  1. Hourly data refresh to unified warehouse
  2. Automated alerts trigger playbooks
  3. Designated operator (rotates daily) executes playbook without waiting for approvals
  4. All decisions logged in decision log

Phase 4: Cross-market learnings

Daily: Extract “What worked on US market that could test on RU?”

Example learning:

  • US: Found micro + UGC outperforms macro 2.5x
  • Action: Test micro + UGC on RU using same playbook
  • Timeline: 48h test, decision to scale or abandon

Key implementation detail:

The real-time playbook should NOT reference raw metrics (CPA, CTR). It should reference system health indicators that are comparable:

  • ROAS (universal)
  • Cost per outcome (which outcome differs by region, but metric is consistent)
  • Trend velocity (is metric improving or degrading?)

This removes the “are we comparing apples to apples?” confusion.

Tools I’d use:

  • GA4 + Metrica → → BigQuery (ETL)
  • dbt → normalized layer
  • Tableau → playbook dashboards + alerts
  • Zapier → automated alert to Slack
  • Notion → playbook documentation + decision log

Estimated setup time: 2-3 weeks.

Do you have access to BigQuery / data warehouse? Or are you working with sheets and BI tools only?