I’m getting frustrated. We use fraud detection tools on influencer profiles before we partner with them, and these tools are catching something, but I’m not confident they’re catching the right things or that they’re actually improving our campaign performance.
Here’s what I mean: Tool A flags an influencer as “medium risk” for fake followers based on follower growth velocity. Tool B says the same influencer is totally clean. Tool C warns about bot-like engagement patterns. Meanwhile, I run a campaign with this influencer anyway (because the brand loves them), and… the campaign actually performs fine.
So either the fraud detection tools are over-conservative and flagging normal behavior as suspicious, or they’re not catching fraud well enough to matter for actual campaign performance.
What’s making this worse: I don’t actually know if the tools are detecting real fraud or just flagging statistically unusual patterns. An influencer who went viral last month will have unusual growth patterns, but that’s not fraud—that’s just… being successful.
I’ve also noticed that fraud looks different depending on the market. I’ll see suspicious patterns on Russian influencer accounts that look completely normal for US creators, and vice versa. So when I try to apply the same fraud-detection logic across markets, I get contradictory signals.
Has anyone actually validated whether their fraud-detection system correlates with campaign performance? Like, do influencers flagged as high-fraud actually underperform compared to influencers flagged as clean? Or are we all just using these tools because they sound sophisticated and feel safer, without actually knowing if they improve our outcomes?
What’s your experience? What fraud signals actually matter for campaign ROI versus what’s just statistical noise?
Я провела именно то исследование, о котором вы просите. Я взяла 100 кампаний за последний год, запустила их через три разных инструмента fraud-detection и сравнила флаги с реальными результатами кампаний.
Вот что я нашла: инструменты хороши в обнаружении очевидного фрода—аккаунты, которые буквально купили 100K фолловеров за неделю. Но они ужасны в обнаружении софистицированного фрода—постепенное накопление фейк-аккаунтов, боты, которые выглядят как люди, аккаунты, которые купили фолловеров год назад, но теперь выглядят нормально.
И вот ключный момент: когда я сравнила предсказания инструментов с реальной производительностью, я обнаружила корреляцию примерно 0.42—это означает, что инструменты правы примерно в половине случаев. Это лучше, чем случайность, но не достаточно, чтобы основывать на них большие решения.
Что действительно коррелирует с плохой производительностью:
- Несоответствие между размером аудитории и качеством комментариев (большая аудитория, но странные/поддельные комментарии)
- Резкие скачки engagement после определенных дат (указывает на накупку)
- Низкая корреляция между лайками и комментариями (боты лайкают, но люди не комментируют)
- Audience overlap с другими инфлюенсерами (если у вас 70% одинаковой аудитории с другим аккаунтом, один из вас вероятно купил)
Мой подход теперь: я не полагаюсь на черный ящик инструмента. Я сам смотрю на эти сигналы, и они мне намного лучше определяют, стоит ли паниковать.
Мы только что прошли через это, когда нанимали инфлюенсеров для международной кампании. Мы использовали четыре разных инструмента, и результаты были настолько противоречивыми, что я просто начал смеяться.
Она помогла мне нанять консультантов на каждом рынке (не для всего, только для fraud-detection), и они сказали мне что-то полезное: “Инструменты видят метрики. Мы видим контекст.”
Например, инструмент показал, что у создателя была странная скорость роста. Мой консультант сказал: “Они только что попали в вирусную ТикТок-акцию, которая об их категории была. Это не фрод, это просто популярность.”
Так что теперь я использую инструменты как первый фильтр—если они говорят “явный фрод”, я слушаю. Но если они говорят “мониторить”, я лично смотрю на профиль, смотрю на кампании, которые они делали, читаю комментарии. И честно, 80% времени инструменты в этом случае просто паранойя.
Лучший сигнал для меня? История: посмотрите, с какими брендами этот инфлюенсер работал раньше, посмотрите на результаты этих кампаний, посмотрите на отзывы. Если у них есть трек-рекорд успешных кампаний с легитимными брендами, они вероятно не фрод.
You’re identifying exactly why most teams rely on multiple tools—no single fraud detection system is comprehensive.
What I’ve learned:
1. Fraud signals tier differently by campaign type:
- For awareness campaigns: bot engagement is less damaging (you want reach anyway)
- For conversion campaigns: bot engagement is devastating (converts to zero sales)
So “high fraud risk” doesn’t mean you automatically reject an influencer. It means adjust your expectations and use case.
2. Market-specific fraud patterns:
You nailed this. Growth velocity that looks suspicious in the US is normal in Russia due to different social platform dynamics (VK’s older audience grows slower, TikTok’s younger audience grows in spikes). I now run separate fraud models per market.
3. The correlation I’ve found that actually matters:
Better predictor than fraud flags? Audience sentiment analysis. Scrape 100 comments from their recent posts. Use NLP to assess whether engagement is genuine discussion or bot-like phrases. Audiences flagged as “low sentiment authenticity” underperform consistently (70% of cases). Audiences flagged as “high fraud” underperform only 35% of the time.
4. Validation approach:
I require influencers flagged as “medium-high risk” to do a small pilot campaign first ($2K-$5K budget). If they perform, I trust them for bigger spends. If they underperform, the pilot cost was worth avoiding a $50K mistake.
Bottom line: Don’t trust fraud flags as gospel. Use them as reasons to investigate deeper, not reasons to reject.
Я хочу добавить человеческий элемент в эту дискуссию. Когда я говорю с инфлюенсерами напрямую, часто они могут объяснить то, что инструменты видят как “подозрительно”.
Например, у одного создателя было странное падение активности, и инструмент выловил это как возможный признак фрода. Но когда я поговорила с ними, оказалось, они просто взяли отпуск две недели. Это нормально! Но инструмент этого не знает.
Мой совет: используйте инструменты как первый скрин, но потом поговорите с инфлюенсерами. Настоящие партнерства строятся на доверии и общении, а не на том, что вы молчаливо проверяете их профиль через черный ящик вроде шпиона.
Это также помогает: когда вы разговариваете с инфлюенсерами, вы можете сказать им, какие метрики вы смотрите, и попросить их помочь вам понять их данные. Это создает прозрачность и уменьшает напряжение, если инструмент что-то поймал неправильно.
Okay, so real talk from a creator side: some of these fraud detection tools make me so mad because they’re penalizing creators for just… existing on the platform.
Like, I had a post go viral last month. My growth rate for that month was WAY higher than normal. One of these tools probably flagged me as suspicious when literally millions of people just started following me because something I posted resonated.
What I wish brands would understand: sometimes unusual metrics are just because something worked. Sometimes there are reasons for patterns that aren’t fraud—maybe I was sick and didn’t post, maybe the algorithm favored my content that week, maybe I did a collab that brought new audience.
If you use fraud detection tools, please cross-check with the actual creator. Because I’ve lost potential partnerships because a tool thought I was sus, when honestly I was just having a good month.
Also, from a platform perspective: quality of engagement is way more important than quantity. I have accounts with lower follower counts but WAY more genuine interaction than accounts with millions. Look at that too.
We’ve actually built a hybrid model now that combines automated fraud flags with expert human review, and it’s shifted how we vet influencers.
Here’s the process:
Automated layer: We run 3 tools and set a threshold. If 2 out of 3 tools flag an influencer as high-risk, we escalate for manual review. If only 1 flags them, we move forward.
Human layer: For flagged accounts, someone on my team (usually me or a senior strategist) spends 15 minutes actually looking at the account. We check:
- Comment authenticity (do people actually engage with the person?)
- Account history (consistent growth or buying spikes?)
- Brand fit (does this creator even make sense for what we want?)
Pilot validation: For any creator we haven’t worked with before OR who’s flagged as medium-risk, we do a small pilot. $3K-$5K budget, clear success metrics. This tells us everything we need to know.
What this costs us: about 30 minutes per creator in the vetting phase, plus small pilot budget. What this saves us: expensive misses and false positives that waste time.
I honestly think most fraud detection tools are helpful for screening out obvious problems, but they’re terrible at nuance. Use them as a filter, not as a decision-maker.