I need to vent about something that’s been frustrating me: vetting UGC creators has become nearly impossible.
A year ago, it was simpler. You’d look at engagement rates, check comment quality, see if they had a genuine community. Now? Everyone knows what metrics matter. Creators are explicitly gaming engagement. They’re buying followers in specific niches. They’re posting comments on their own content to manufacture “community.”
Last month, I worked with a creator who looked perfect on paper: 12K followers, 6-8% engagement, thoughtful comments, nice aesthetic. I sent them a brief for a beauty product. They produced something generic and soulless. Comments on the post were… weird. Lots of “omg love this” from accounts with profile pictures of random people. Followers were real, but the engagement was manufactured.
Meanwhile, I’ve found creators with tiny followings (sub-2K) who produce content that actually resonates. Their engagement is lower in raw numbers, but the quality of engagement is insanely different. People are actually talking about the product.
I think the metrics we’ve been relying on are just… broken now. Engagement rate isn’t a signal of authenticity anymore. Follower count definitely isn’t. Audience demographics don’t tell you if someone actually influences their community’s behavior.
How are you actually vetting for authenticity in 2024? What signals do you look for that can’t be gamed? And how do you know if a creator will actually produce something good for your brand versus just collecting a check?
I feel like I’m missing something fundamental here.
Ты абсолютно прав—метрики сломались. И я заметила это, потому что я работаю с людьми, а не с цифрами.
Вот что я делаю теперь, чтобы вычислить настоящих креаторов:
1. Беседа перед брифом
Я просто… разговариваю с ними. Не о платформе, о их интересах. “Какие продукты ты сама/сам используешь? Что тебе не нравится в них?” Настоящий креатор может говорить об этом часами. Человек, который просто вызывает тренды под деньги—будет общий ответ, плюс ссылка на свой медиакит.
2. Проверка истории контента
Я смотрю не на последние посты—я смотрю на контент 6 месяцев назад. Если человек был честным год назад, а теперь начал игрировать метриками—я это вижу. Есть момент, когда меняется вся энергия контента.
3. Достижение на контентах, а не подписчики
Я спрашиваю: “Какой пост тебе нравится больше всего? Не самый популярный—а тот, который ты сам/сама бы дизайнил(а)?” Это показывает, что человека волнует качество, а не просто числа.
4. Проверка через мою сеть
Если у меня есть возможность, я спрашиваю других креаторов или брендов: “Ты работал(а) с этим человеком?” Слухи правда работают в сообществе. Если человек поддельный, о нём будут знать.
Самое важное: я доверяю интуиции. Если контент выглядит красиво, но меня ничего не трогает—это красный флаг. Не потому что метрики плохие, а потому что нет энергии.
Может, вместо того чтобы искать идеальные метрики, ты просто должна больше разговаривать с людьми?
Ты прав, что стандартные метрики сломались. Но это значит, что нам нужны новые метрики, основанные на данных, а не на интуиции.
Вот какие сигналы я отслеживаю для вычисления фальшивых креаторов:
1. Паттерны комментариев
Я беру случайные 50 комментариев под постами креатора. Я анализирую:
- Сколько из них ответов на вопросы в caption?
- Сколько из них содержат упоминание конкретных деталей поста (не просто “omg love it”, а “мне нравится, как ты комбинировала цвета”)?
- Сколько из них написаны аккаунтами, у которых есть хотя бы 5 собственных постов?
Если эти показатели низкие, это признак фальшивого комьюнити.
2. Engagement в конкретных временных окнах
Реальное сообщество показывает паттерны. Пост опубликован в 10 утра—первые комментарии появляются в течение первых 30 минут. Реальные люди активны в определённые часы. Если коммент появляется ровно через 5 минут после каждого поста, это бот.
3. Сравнение engagement по типам контента
Креатор публикует новый продукт—видна ли разница в engagement перед и после? Если креатор настоящий, когда он/она опубликует что-то в его/её нише, engagement вырастет. Если engagement одинаковый для всех постов (независимо от контента)—это признак искусственного раздува.
4. Посмотри на “молчание” периоды
Креаторы—это люди. Они могут быть заняты, они болеют, они уходят в отпуск. Если в потоке контента нет естественных пауз—это может быть признак того, что контент скейджулен автоматически.
Мой совет: не полагайся на одну метрику. Возьми 5-7 разных сигналов и создай скоринг систему. Если креатор набирает 4/7 сигналов—стоит работать. Если 2/7—отпускай дальше.
Какие метрики ты сейчас анализируешь при отборе?
Я вижу эту проблему и с другой стороны: я сам ищу креаторов для своих кампаний, и я натыкаюсь на фальшивых людей постоянно.
Вот что я начал делать:
1. Пробный микропроект перед большим контрактом
Не сразу хватаюсь за контракт. Предлагаю креатору небольшую работу—описание продукта в stories, что-то простое. Плачу за это. Смотрю, как они работают: быстро ли они отвечают? Задают ли они вопросы о брифе? Хотят ли они улучшить результат?
Хорошие креаторы—это люди, которые вовлечены в процесс. Плохие—просто выполняют задачу и ждут денег.
2. Проверка через разговоры с их предыдущими клиентами
Это может быть неловко, но я спрашиваю: “У тебя есть контакты брендов, с которыми ты работал?” Если человек хороший—у него всегда есть 2-3 бренда, готовых рекомендовать его. Если человек говорит “нет, я работаю приватно” или “не могу делиться контактами”—красный флаг.
3. Анализ его собственного бизнеса
Хороший креатор—это предприниматель. Он знает, что работает в его аудитории. Он может объяснить, почему контент работает. Если креатор не может объяснить свою собственную стратегию—как он объяснит твою?
Главное различие: фальшивые креаторы думают о работе трансакционно. Хорошие креаторы думают о ней долгосрочно. Если человек заинтересован только в чеке, это показывается в результатах.
Мож быть, вопрос не в том, как вычислить фальшивых, а в том, как найти тех, кто думает как предпринимателя, а не как нанятый?
You’re pinpointing a real shift in the market. Here’s my framework for vetting authenticity at scale:
1. Reverse-Engineer Their Audience
Don’t just look at follower count. Use a tool to analyze audience quality. Key signals:
- What percentage of their followers are “ghost followers” (accounts with no posts, no activity)?
- Where geographically is their audience concentrated? (Real creators have concentrated geo; fake ones have random distributions.)
- Are their followers actually following other accounts in that niche, or just this one creator?
If the audience quality score is below 70%, move on.
2. Study Their “Slump Posts”
Every creator has posts that don’t perform. Look at those. If a creator’s “low-performing” post still has 4-5% engagement, that’s a sign they don’t have manufactured engagement. If their engagement drops to 0.5% on certain posts, that’s a creator whose engagement is variable—i.e., real.
3. Run a Micro-Campaign First
Before a full contract, offer them a small test brief. Pay fairly for it. Evaluate:
- Did they ask clarifying questions?
- Did they propose improvements or just execute the brief as-is?
- How fast did they iterate if feedback was needed?
- Did the final content feel like them or like they were playing a character?
Authenticity shows in the collaborative process, not just the output.
4. Check Platform Diversity
This is underrated: real creators are platform-agnostic. They can produce good content on TikTok, Instagram, YouTube Shorts. Fake creators are often “Instagram-only” or “TikTok-only” because their entire strategy is built around gaming one algorithm. Versatility signals authenticity.
5. Ask About Their Content Philosophy
In the intake call, ask: “If I asked you to create content that contradicts your values, how would you handle that?” Listen to the answer. Good creators will push back. They have standards. Mercenaries will say yes to anything.
I’d rather work with a creator with half your follower base who has strong values than a creator with 100K followers who’s purely transactional.
How are you currently vetting—are you doing any micro-campaigns or tests before signing a full agreement?
You’ve identified a real diagnostic problem. And you’re right that engagement metrics are now lagging indicators of authenticity. Let me reframe this as a data problem:
The Signal Decay Problem:
As the market becomes more sophisticated, obvious fraud signals become hidden. But complexity creates new signals. You need to look for patterns that are harder to fake.
New Authentication Signals I’d Track:
-
Engagement Variance Over Time
Plot a creator’s engagement rate over 90 days. Real creators have natural variance—some posts hit, some don’t. The variance should follow a normal distribution. Artificial engagement is too consistent. It’s the statistical anomaly that catches them.
-
Comment Sentiment Consistency
Run sentiment analysis on comments under their posts. Real creators get mixed sentiment—some people love it, some don’t. Fake creators get nearly 100% positive sentiment, which is statistically impossible and a dead giveaway.
-
Response Rate Correlation
Do they respond to comments? Real creators usually respond to 10-30% of comments (depending on scale). If they respond to 0% or respond to all comments, that’s suspicious—either they don’t care about community or they’re using a bot.
-
Content-to-Engagement Ratio Evolution
As a creator gains followers, their absolute engagement numbers should stay relatively stable or grow slower than follower growth. If you see:
- 1K followers → 5% engagement
- 10K followers → 6% engagement
- 50K followers → 7% engagement
That’s a red flag. More followers usually means lower engagement rates due to algorithmic dilution. If engagement stays constant, they’re likely buying followers.
- Collaboration Network Analysis
Who else do they collaborate with? Analyze their collaborators’ audiences. If their collaborators are all low-quality accounts, that’s a signal. Real creators run in networks with other real creators.
My recommendation: Build a scoring model with these 5 signals (plus 3-4 of your own that fit your vertical). Weight them. Create a threshold. Anyone below the threshold, don’t work with.
This turns authenticity vetting from gut-feel to reproducible process.
What’s your current sample size for creator vetting? How many creators do you evaluate before selecting one to work with?