How to actually vet influencers in markets you don't know well—beyond follower count

I’ve come to realize that looking at follower count is basically useless when you’re entering a new market. Complete waste of time. But I see agencies and brands doing this all the time, and it usually ends badly.

When we first started scaling into new regions, we made every mistake in the book. We’d look at follower numbers, maybe check engagement rate, and assume we understood the creator’s audience quality. Spoiler: we didn’t. We got burned on a few high-profile flops before we figured out what actually matters.

Now, here’s what we actually look at:

Audience authenticity. We run basic audits on follower composition. Are these real people? Do they align with our target demographic? We use some basic tools, but honestly, the best check is spending 30 minutes scrolling through comments and looking for patterns. If every comment is just emojis from bot-looking accounts, that’s a red flag.

Content consistency and values alignment. Not just whether they post regularly (though that matters), but whether their values actually match the brand. We’ve learned this the hard way—a creator with 500k followers whose audience is politically divided from your brand is a liability, not an asset.

Performance history. We try to find other campaigns they’ve done and look at the actual results if possible. Sometimes creators will share case studies. If they won’t, that’s also a signal. Reputable creators are proud of their work.

Relationship with their community. How do they respond to criticism? How do they handle brand partnerships? Do they disclose sponsorships properly? This tells us everything about whether they’re a professional or just chasing quick money.

Local market credibility. In some markets, there are local creator databases or networks we can tap into. In others, we just ask our local partners for recommendations. Word-of-mouth from someone embedded in the market is worth more than any follower count.

The other thing we do now is start with smaller test campaigns. Even with all this vetting, you don’t really know until you work together. So we’ll do a smaller collaboration first, see how they perform, and then we have real data to make bigger commitments.

What’s your vetting process look like? Do you rely on tools, or do you trust local networks more?

Абсолютно согласна с вами! Я видела, как столько красивых кампаний распались именно потому, что бренд выбрал инфлюенсера только по цифрам, не понимая реальной истории и аудитории.

Лично я всегда начинаю с личного разговора. Я звоню или пишу создателям, которых считаю потенциальными кандидатами, и мы просто разговариваем. За 15 минут я понимаю больше о их подходе к сотрудничеству, чем из любого анализа данных.

И вы абсолютно правы о том, что нужно начинать с тестовых кампаний. Это помогает не только проверить производительность, но и понять, насколько приятно работать с этим человеком. Потому что на самом деле, половина успеха—это хорошие отношения.

Мне кажется, мы должны помочь друг другу. Может быть, вы знаете хороших партнёров в каких-то регионах, где я ищу контакты?

Спасибо за практический совет! Я часто работаю с невысокоуровневыми брендами, которые впервые работают с инфлюенсерами, и они как раз нуждаются в таком руководстве.

Еще одна вещь, которой я клиентам рекомендую: посмотрите, как инфлюенсер ведёт себя, когда получает критику. Я вижу это как ключевой индикатор их профессионализма. Когда человек реагирует адекватно и вежливо—это хороший знак. Когда удаляет комментарии или становится враждебным—красный флаг.

Вы упомянули несколько важных переменных, но я хотела бы увидеть более конкретные метрики для оценки.

Когда вы говорите об “аутентичности аудитории”—используете ли вы конкретные инструменты аудита (tipos: HypeAuditor, Social Blade, Social Blade, etc.)? И какие пороги вы устанавливаете? Например: если только 60% аудитории—это реальные люди, вы отметаете кандидата?

По “истории производительности”: как часто вы на самом деле можете получить доступ к этим данным? Большинство опытных инфлюенсеров довольно закрыты по поводу КПЭ прошлых кампаний. Как вы справляетесь, когда им внутипоказывают нечего?

И последний вопрос—по размеру тестовой кампании. Какой минимальный бюджет вы видели, который даёт значимые данные для принятия решения? Потому что часто я вижу компании, которые тратят так мало на тесты, что результаты просто шумны.

Отличное резюме квалитативных факторов, но мне нужны цифры для полной картины. Давайте разберёмся:

Аудитория:

  • Процент ботов и поддельных аккаунтов, которые вы считаете приемлемым?
  • Как вы измеряете соответствие демографии аудитории вашему целевому рынку?

Производительность:

  • Когда вы запускаете тестовую кампанию, какие КПЭ вы отслеживаете в первую очередь? (reach, engagement rate, conversions?)
  • Какой минимальный размер выборки результатов вам нужен, чтобы сказать: “Это кандидат для расширения”?

Стоимость:

  • Как локальные расценки влияют на вашу калькуляцию риска? Работа в более дешёвых рынках может означать, что тестовые креативы стоят дешевле.

Вот это мне нужно для полного понимания вашей методологии. Остальное—хорошая практика, но я всегда ищу числа.

Спасибо за честное описание. Это реально полезно, потому что мы сейчас выбираем инфлюенсеров для запуска в Чехии, и я совершенно не знаю, как оценить их надёжность.

Вопрос: если местный партнёр рекомендует инфлюенсера, как вы оцениваете—насколько объективна эта рекомендация? Могут ли у них быть собственные интересы? Или вы просто доверяетесь?

This is a critical framework that I think too many agencies gloss over. The test-campaign approach is absolutely right, and it’s exactly what we do. It’s a rite of passage for scaling into new markets.

One thing I’d add: build a scoring rubric for creator evaluation. We use a weighted system that factors in audience quality (40%), content consistency (30%), engagement authenticity (20%), and community health (10%). Different clients weight these differently, but having a structured framework prevents gut feeling from dominating the decision.

The other tactical move is to create an internal database of trusted creators. Once you’ve successfully worked with someone, they become part of your repeatable network. This reduces vetting time significantly on future campaigns.

One more point: vetting also means understanding the creator’s relationship with other brands. If they collab with direct competitors, that’s worth knowing. If they partner with brands whose values are misaligned with yours, that’s information too. Their portfolio is as revealing as their audience.

Also—contracts matter. Make sure your SLA with the creator includes deliverable specifics, timeline, disclosure requirements, and what “satisfactory” performance looks like before you hand over payment.

Solid evaluation framework. I’d systematize this slightly differently to scale it across multiple markets:

Tier 1 screening (algorithmic, fast):

  • Follower composition audit (use tools like HypeAuditor or Modash)
  • Basic engagement rate calculation
  • Content recency check
  • Obvious red flags (engagement pods, manipulation signals)

Tier 2 vetting (manual, targeted):

  • Audience demographic match to your target
  • Brand safety assessment (controversy check, political affiliation, etc.)
  • Collaboration history analysis
  • Communication style assessment

Tier 3 validation (pilot campaign):

  • Small budget test with clear success metrics
  • Real-time performance monitoring
  • Creator responsiveness and professionalism during execution

The reason for this tiered approach is velocity. You screen 100 creators through Tier 1, move maybe 20 to Tier 2, then test 3-5 in Tier 3. This is efficient and reduces decision fatigue.

Data point: tiers typically take us 2 days, 5 days, and 14-30 days respectively. Total decision cycle is ~45 days for a new market, which usually feels reasonable.

One methodological note on the test campaign sizing: you need enough budget to produce statistically significant results, but not so much that you’re burning cash on learning.

Roughly: if your influencer charges $X per post, budget 3-5 posts ($3X-$5X total) and set a success threshold ahead of time. If engagement rate hits 2-3% or your target CPE is below threshold, scale. If not, move on.

Don’t fall into the trap of running underfunded tests. The data becomes too noisy to trust, and you end up making gut-call decisions anyway. Better to test fewer creators with real budgets than many creators with penny-pinch budgets.

Also—always include a post-campaign debrief with the creator. This conversation reveals a ton about their professionalism, flexibility, and whether they take accountability for results.