Building a shared benchmarking library for influencer campaigns across us and russian markets—where do you start?

I’ve been thinking about this problem for a while now, and I think it’s becoming critical. Right now, whenever we wrap up a campaign, we capture results, but we don’t have a system for learning from them. Each market has its own baseline expectations, and we’re not leveraging historical data to set smarter goals for the next campaign.

Last month, I reviewed five campaigns across both markets and realised we have no consistent way to compare them. What counts as “good” engagement in Russia is different from the US, sure, but we need to know those benchmarks. Right now, we’re eyeballing it and hoping.

Here’s the situation: I want to build a shared benchmarking library where we can store campaign data—not just our own, but benchmarks from the industry—and use it to:

  1. Set more realistic KPIs before campaigns start
  2. Know whether our results are actually good or mediocre
  3. Identify which types of content, influencers, and audiences perform consistently well
  4. Share learnings between markets so we don’t repeat mistakes

The challenge is: what data do we actually need to capture? How granular should benchmarks be? Should we separate by industry, audience size, platform, region? And how do we make sure the library stays current and doesn’t become a dead file?

I’ve seen companies build these things and they just collect dust because nobody maintains them. So I’m trying to figure out: who owns it, what’s the minimum viable structure to start, and what metrics actually matter enough to track?

Has anyone built something like this? What would you include in a bilingual benchmarking library, and how would you keep it alive?

Я строила именно такую систему для нашей компании, и я могу поделиться тем, что сработало.

Структура библиотеки:
Я начала с простой Google Sheet с этими колонками:

  • Дата кампании
  • Рынок (RU / US)
  • Платформа (Instagram, TikTok, YouTube)
  • Инфлюенсер (имя)
  • Размер аудитории (50-100K, 100-500K, 500K+)
  • Тип контента (review, unboxing, tutorial, etc.)
  • Основные КПИ (reach, impressions, engagement rate, CTR, conversions)
  • Бюджет
  • Комментарии (что сработало, что нет)

Главное: я не стала собирать ВСЕ данные. Я собираю ровно то, что помогает прогнозировать следующую кампанию. Меньше данных = больше люди её используют.

Кто это ведёт? Я собираю данные после каждой кампании (15 минут работы), но раз в месяц я провожу audit: проверяю, всё ли актуально, нет ли ошибок в расчётах.

Как мы это используем: Перед новой кампанией я быстро смотрю: “Какие были результаты для инфлюенсеров размером 100-200K на Instagram в США?” И я сразу вижу диапазон—от X% к Y% engagement. Это совсем меняет разговор о KPI.

Важно: держи реп 12-24 месяцев прошлых данных. После этого берёшь snapshot, архивируешь, и начинаешь новый лист. Иначе таблица становится слишком большой и медленной.

Главный риск: люди забот собирать данные, или собирают неправильно. Решение: встроила её в postmortem процесс кампании. Мы не закрываем кампанию, пока данные не в библиотеке.

Я тоже это делаю, и это помогает мне и нашим партнёрам понять, что реально работает.

Мне кажется, главное—не заваливать себя данными. Начни с самого простого:

  1. Инфлюенсер (имя, размер)
  2. Платформа
  3. Метрика 1: engagement rate
  4. Метрика 2: то, что имеет смысл для вашего бизнеса (conversions, clicks, etc.)
  5. Результат: был ли он выше/ниже среднего

Потом делаешь сводку раз в месяц: “Статистика: инфлюенсеры 100-200K на Instagram в среднем дают 4.2% ER на русском рынке и 2.8% на американском.”

Это просто. Это работает. И все понимают, на что смотреть.

Мой совет: не пытайся собрать историю 5 лет назад. Начни с сегодня и иди вперёд. Данные, которые у тебя есть, достаточны.

И главное—делись этим библиотекой. Приглаши других менеджеров обновлять её, комментировать. Если это совсем одна твоя ответственность, она умрёт. Если это общее дело, она живая.

This is classic KPI standardization problem, and I’ll be blunt: most benchmarking libraries fail because they’re built for historians, not decision-makers.

Here’s how I’d structure it:

Tier 1 (Essential):

  • Influencer size bucket (micro, mid-tier, macro)
  • Platform
  • Market
  • Engagement rate (comparable metric)
  • Conversion rate (if available)
  • Cost per result

Tier 2 (Context):

  • Content type
  • Audience demographics
  • Campaign duration
  • Seasonality notes

Tier 3 (Archive):

  • Everything else

The reason I separate tiers: when you’re planning a campaign, you need Tier 1 in seconds. Tier 2 is “if I want to understand nuance.” Tier 3 is “if someone asks an edge case question.”

Maintenance:
Assign one person (not a committee) who owns it. That person reviews submissions, flags inconsistencies, and maintains standards. Without that, you get garbage data.

Critical rule: Only include campaigns where you had complete data capture. One campaign with partial data ruins benchmarks for everyone.

Practical tip: Use something like Airtable, not Google Sheets. It lets you filter by region, platform, influencer size in seconds. Way more useful.

Pro move: Every quarter, publish a “state of benchmarks” summary. 2-3 page summary with key findings. This keeps people invested in the data.

One question: are you planning to compare against industry benchmarks (external) or just your own history (internal)?

I manage a benchmarking system for my agency, and I’ll tell you what actually works:

Start with what you measure. Don’t try to be comprehensive. We track:

  • Performance vs. brief
  • Average metrics by influencer tier
  • ROI by campaign type
  • Client satisfaction

That’s it. Four things. Everything else is color.

Building it:

  1. Use a template. Every campaign report follows the same format. This makes data collection 10x easier.
  2. Assign responsibility—doesn’t have to be someone’s full job, but someone has to own “did we capture this correctly?”
  3. Share insights, not raw data. Every month, send a summary: “This month’s top performer was X type of influencer. Average engagement was Y.”

Why most fail: People collect data they don’t use. Be brutal about what matters. If you won’t use the data to make a decision, don’t collect it.

Cross-market angle: Your benchmarks will look different for RU vs. US, and that’s OK. Store them separately, but make comparison easy. “US influencers 100K: avg ER 2.4%. RU influencers 100K: avg ER 4.1%. Why? Different platform dynamics + audience behavior.”

Biggest win: Share your benchmarks with clients and influencers. When they know “you delivered 3.2% ER and that puts you in the top 30%” they trust you more and negotiate less.

О, это отличная идея! Когда у тебя есть реальные цифры, намного легче договориться с инфлюенсерами и брендами.

Мой совет из опыта помощи в партнерствах: начни со своих лучших кейсов. Не собирай ВСЁ, собери примеры, где кампания была успешной и у тебя есть полные данные. Потом расширяй.

И когда делишься этой информацией, объясни контекст: “Вот почему этот инфлюенсер дал хорошие результаты. Это был их размер аудитории, это был контент, это было время года.” Просто цифры—это скучно. Цифры с историей—это полезно.

Ещё совет: приглаши инфлюенсеров комментировать результаты. “Почему вы думаете, что это сработало?” Их инсайты часто помогают другим инфлюенсерам понять, что они должны делать по-другому.

И да, держи это живым. Раз в месяц обновляй, добавляй новые кейсы. Если это будет выглядеть как мёртвый архив, никто не будет его использовать.

This is actually really helpful from a creator perspective too. If I could see what other creators with audiences similar to mine are achieving, I’d know better what to promise brands.

But I’d say: make sure the benchmarks are real. Like, don’t include one-off viral posts. Include average performance. Because a creator can get lucky once, but consistent performance is what matters.

Also, please separate by content type. My ASMR videos perform completely different from my product reviews. So if you’re benchmarking “Chloe’s engagement rate,” you need to be clear that it’s 3% for reviews but maybe 8% for ASMR.

And if you’re comparing creators across markets, remember that our follower counts might look similar but our audience demographics could be totally different. I have followers in the US, some in Eastern Europe, some everywhere. The composition matters.