¿estamos usando IA para mejorar decisiones o solo para justificar presupuesto que ya habríamos gastado de todas formas?

Necesito escribir esto porque ha estado molestándome durante semanas.

Esta es la segunda vez este año que veo una campaña de influencer que fracasa, y cuando hablo con el equipo que la ejecutó, la conversación es siempre la misma: ‘Bueno, los modelos de IA dijeron que debería funcionar.’ Punto. Fin. Como si tener un modelo detrás de la decisión la convirtiera automáticamente en correcta.

Pero aquí está lo que veo realmente pasando: la IA se está usando para volver legitimada una decisión que alguien probablemente habría hecho de todas formas. El analista mira los datos, ve un influencer con reach en ambos mercados, dice ‘OK, esto tiene sentido,’ luego ejecuta la campaña. Si funciona, fue ‘gracias IA.’ Si falla, fue ‘oh, no lo vimos venir.’

No estoy diciendo que la IA no sea útil. Lo es. Pero creo que muchos de nosotros la estamos usando más como una justificación posterior que como una herramienta de verdadera validación.

Lo que he visto que funciona es hacer que la IA sea una restricción, no una permitencia. En lugar de buscar influencers que se adapten a lo que ya queremos hacer, dejamos que los modelos de predicción realmente nos cuestionen: ‘¿Por qué crees que esto funcionará en ambos mercados cuando históricamente vemos caídas de engagement en transiciones de idioma?’ Eso duele, pero es más honesto.

¿Cuándo fue la última vez que una predicción de IA te hizo cambiar direccionalmente tu estrategia en lugar de simplemente confirmar lo que ya planeabas hacer?

Punto duro pero justo. Vamos a ser honestos: la mayoría de las agencias están usando IA más como cobertura que como brújula real. Documento las recomendaciones, puedo decir que ‘seguimos el análisis predictivo,’ y si algo sale mal, hay un paper trail que dice que fue data-driven.

Pero sí, ha habido momentos en que los datos me han hecho cambiar decisión. La más reciente: queríamos trabajar con un macro-influencer que lucía perfecto en papel. La IA flagged que aunque tenía reach en ambos mercados, sus engagement patterns sugerían que sus followers en el mercado secundario eran principalmente bot o inactivos. Fue un hit en el ego porque el influencer se veía increíble en la superficie. Pero escuchamos a la máquina, pasamos, y luego vimos que otro cliente trabajó con ese mismo influencer y tuvo resultados horribles.

Eso fue real validation. No es común, pero cuando sucede, solidifica por qué necesitamos estas herramientas.

La otra cosa es que tenemos que empezar a responsabilizar a los equipos por cuándo ignoran las recomendaciones de IA. Si la herramienta dice ‘no,’ y procedes de todas formas porque ‘te gusta’ el influencer, eso debería documentarse. No para culpar, sino para aprender. ¿Tuviste razón? ¿Tenía razón la IA? Eso iteración es lo que separa las agencias que realmente usan IA de las que solo pretenden.

Me encanta esta pregunta porque la veo desde el otro lado: marcas que usan IA como excusa para no hacer el trabajo de verdad conocerme o entender mi audiencia.

He tenido conversaciones donde literalmente dicen: ‘Bueno, el algoritmo dice que eres un match perfecto, así que vamos a proceder.’ No preguntas sobre mis audiencias, no entienden mi contenido, nada. Solo números. Y luego se sorprenden cuando la campaña no resonates.

Lo que valoro en los buenos partners es cuando dicen: ‘Los datos sugieren que esto podría funcionar. ¿Qué piensas tú? ¿Tiene sentido desde tu perspectiva?’ Eso es colaborativo. Eso reconoce que la IA es una herramienta, no un oráculo.

Mi punto: si tu IA no puede explicar por qué recomienda algo de una manera que un humano pueda entender e impugnar, entonces no confíes completamente en ella. Los buenos creadores te van a cuestionar si algo no se siente auténtico, y eso debería ser bienvenido.

Esta es la pregunta correcta para formularse. La mayoría de las implementaciones de IA en marketing de influencers son confirmacionales, no desafiantes. Los equipos entrenan modelos en datos históricos, ejecutan predicciones, y luego procesan con lo que ya planeaban.

Para que la IA sea realmente útil, necesitas:

  1. Conflicting models: ejecuta múltiples enfoques de modelado. Si todos dicen ‘sí,’ el riesgo de pensamiento de grupo es alto. Si se contradicen, tienes algo real que investigar.
  2. Anomaly flagging: configura alertas para cuando un influencer que deberías recomendar tiene red flags ocultas en los datos. Eso te fuerza a preguntar por qué.
  3. Predictive vs. prescriptive: la mayoría de las herramientas solo predicen resultados. Las buenas prescriben acciones alternativas. ‘Si eliges A, esperamos X. Si eliges B, esperamos Y. Recomendamos B porque Z.’
  4. Postmortem analysis: después de cada campaña, compara predicciones contra resultados reales. Estás buscando patrones de dónde el modelo falló sistemáticamente.

Si tu implementación de IA no está haciendo al menos 3 de estas 4, entonces sí, probablemente solo estés usando la máquina para justificar decisiones que ya habías tomado. Eso no es malo—es solo no ser honesto sobre qué problema estás resolviendo.