Art 9/26. La IA y los resultados milagrosos: nos presentan cuentas… y a veces son cuentos.
O cómo algunos estudios convierten una estimación en una “evidencia”.
Hay una cosa que conviene decir ya, sin incienso
ni atractivas presentaciones : la inteligencia artificial sí está dando
resultados reales en empresas. Sí, funciona. A veces muy bien. Pero alrededor
de esa verdad se ha montado también un pequeño parque temático de la
exageración, donde una mejora puntual se convierte en “revolución”, una
proyección se presenta como “dato” y una estimación con varios supuestos
discutibles acaba desfilando por los diferentes comités como si hubiera bajado
del monte Sinaí grabada en piedra.
Y ahí está el truco.
Porque no es lo mismo un dato observado que una
estimación interna. Y no es lo mismo una estimación interna que una promesa de
valor futuro. Ya sé que estoy diciendo obviedades, pero media industria vive de
emborronar esa frontera con una soltura digna del mejor prestidigitador con un
MBA.
Entrando en materia
Para entendernos: el Federal Reserve Bank of St.
Louis publicó que los trabajadores que usaron IA generativa declararon haber
ahorrado de media un 5,4% de su tiempo de trabajo semanal, unas 2,2 horas sobre
una semana de 40 horas. Eso es interesante. Mucho. Pero significa exactamente
eso: que en esa medición, esos usuarios dijeron haber ahorrado ese tiempo. No
significa que “la IA vaya a mejorar la productividad de todas las empresas un
5,4%”. No significa que puedas recortar plantilla un 5,4%. No significa que tus
márgenes vayan a engordar solos mientras tú te haces fotos con el trofeo de
innovación que seguro te entregarán. Significa lo que significa. El resto ya es
literatura de cualquier aeropuerto con un logo corporativo.
Pero no nos quedemos con esto solo. También encontramos
casos reales, que sí enseñan cosas útiles. Klarna, por ejemplo, comunicó que su
asistente de IA hacía el trabajo equivalente al de 700 agentes a tiempo
completo, que resolvía gestiones en menos de 2 minutos frente a los 11 minutos
anteriores, que operaba en 23 mercados y en más de 35 idiomas, y que estimaba
una mejora de 40 millones de dólares en beneficio para 2024. La palabra
importante aquí no es “40 millones”. La palabra importante es “estimaba”.
Porque una estimación no es una cifra auditada de impacto contable limpio. Es
una atribución probable basada en supuestos. Y ahí es donde muchas consultoras
hacen su agosto en febrero: cogen una mejora real, la anualizan, la inflan con
adopción teórica perfecta, le descuentan cero fricciones humanas y te la venden
como certeza estadística con una tipografía elegante.
¿Qué es lo que pasa?
La jugada suele ser esta. Se detecta que una herramienta ahorra unos minutos por tarea. Después se asume (sin más) que ese ahorro se produce siempre, en toda la plantilla, todos los días, con el mismo nivel de adopción, sin errores, sin verificaciones extra, sin retrabajos y sin costes de implantación. Luego alguien multiplica por número de empleados, por días laborables, por coste hora, por ilusión acumulada, y aparece una diapositiva que dice algo así como “impacto potencial anual: 12,7 millones”. Y ya está , se ha operado el milagro. O, dicho con más precisión, ya tenemos una hoja de Excel disfrazada de aparición mariana.
No estoy diciendo, ni mucho menos, que todas las
consultoras se dediquen a esto. De hecho la mayoría de la que conozco son
serías y te recalcan el “estimado”. Sería demasiado sencillo y hasta injusto. Lo
que digo es algo más interesante: algunas no mienten del todo, pero cuentan las
cosas de forma que te empujan a creer más de lo que los datos realmente
permiten concluir. Y eso, en la práctica, se parece muchísimo a vender humo,
eso sí, premium.
En empresa, la IA da resultados sobre todo donde
hay tareas repetibles, procesos definidos y una métrica que no necesita
traductor simultáneo. Atención al cliente, clasificación documental, soporte a
empleados, detección de fraude, búsqueda interna, mantenimiento predictivo,
ayuda al desarrollo de software. Ahí sí suele haber mejoras visibles porque
puedes comparar antes y después sin invocar a ningún espíritu o hacer un acto
de fe. Cuando una organización dice que ha bajado tiempos de gestión, acelerado
consultas o reducida fricción operativa, y además te enseña cómo lo ha medido (esta
es la clave), eso ya merece respeto.
El mundo real
El problema aparece cuando el mercado confunde
tres niveles distintos: uso, impacto y valor económico atribuido. Que una
empresa use IA no quiere decir que haya transformado su negocio. Que un equipo
ahorre tiempo no significa automáticamente que ese tiempo se haya convertido en
productividad neta. Y que alguien hable de “valor generado” no aclara por sí
solo si habla de ingresos, ahorro de costes, capacidad liberada, riesgo evitado
o una mezcla creativa de todo lo anterior con un poco de optimismo ejecutivo.
Lloyds Banking Group, por ejemplo, comunicó en
enero de 2026 que la IA generativa había aportado alrededor de 50 millones de
libras de valor en 2025 y que esperaba más de 100 millones adicionales en 2026.
A ver, de primeras, está bastante bien formulado, porque distingue lo ya
comunicado como valor de lo esperado para el año siguiente. Eso es más serio
que la típica fanfarria del “la IA ya nos está revolucionando el negocio” sin
explicar ni cómo, ni cuánto, ni con qué definición de “valor”. Pero incluso en
un caso relativamente bien contado como este, un lector adulto debería hacerse
la pregunta buena: ¿valor medido cómo exactamente? Porque “valor” es una
palabra maravillosa: cabe casi todo dentro y queda estupenda en cualquier nota
de prensa.
En finanzas, además, el asunto exige todavía
menos poesía y más precisión. El Banco de Inglaterra y la FCA señalaron en su
encuesta de 2024 que el 75% de las firmas de servicios financieros ya usaban IA
y otro 10% planeaba usarla en los tres años siguientes. Eso sí es relevante.
Eso ya no es moda, ni hacer un piloto simpático, ni crear un juguete para el
laboratorio de innovación montándoles un futbolín (ojo, esto yo le visto en
alguna empresa). Eso es adopción sectorial amplia. Pero justamente por eso hay
que vigilar mejor el lenguaje. Cuando una tecnología se normaliza en banca,
seguros o pagos, el problema deja de ser si “mola” y pasa a ser si está bien
gobernada, bien medida y bien explicada.
Porque en finanzas una mala cifra no es una
anécdota. Puede ser una bomba que estalle cuando menos se espera.
Y los riesgos no son teóricos. El caso de Air
Canada fue un bofetón pedagógico. Su chatbot dio información incorrecta sobre
una tarifa por duelo y la empresa fue considerada responsable por esa
información. La lección es tan simple que casi ofende tener que repetirla: si
el bot le habla al cliente en nombre de la empresa, la responsabilidad sigue
siendo de la empresa. No puedes poner un loro digital a atender y luego fingir
sorpresa cuando el loro te mete en un tribunal.
Algo parecido, pero más serio todavía, pasó con
iTutorGroup. La EEOC cerró un acuerdo por 365.000 dólares tras alegar que el
software de selección rechazaba automáticamente a mujeres de 55 o más años y a
hombres de 60 o más. Esto desmonta otra majadería bastante extendida: la idea
de que la IA, por sonar matemática, viene bendecida con objetividad divina. No.
Y esto lo he repetido en muchos de mis artículos. Si alimentas el sistema con
reglas torpes o sesgos históricos, lo que automatizas no es la neutralidad. Es
la discriminación, pero más deprisa y con un imponente dashboard.
Mi opinión
Mi opinión es muy clara. La IA sí está generando
valor real en empresas. Lo hace mejorando procesos, quitando trabajo mecánico,
acelerando consultas, ayudando a empleados y afinando operaciones. Pero
alrededor de esa realidad se ha creado una imagen paralela de estimaciones
hinchadas, causalidades imaginarias y números presentados con una solemnidad
que no merecen. En demasiados sitios, la presentación factura más que la
evidencia.
Por eso, cuando alguien te venga con un titular
glorioso del tipo “la IA generará X millones” o “equivale al trabajo de cientos
de personas”, conviene hacer cinco preguntas que suelen arruinar bastante la
fiesta. ¿Qué parte es dato observado? ¿Qué parte es atribución interna? ¿Qué
parte es proyección? ¿Qué costes y errores se han descontado? ¿Y qué ha pasado
de verdad en el día a día, no en la slide?
Si esas respuestas no aparecen, no estás ante
evidencia robusta. Estás ante una narrativa de venta con perfume analítico.
Y aquí va la tesis de fondo, la mía, la que defiendo
que se parece más a la verdad: la IA no necesita que la exageren. Ya es
suficientemente útil cuando se aplica con cabeza. Lo que sobra no es
tecnología. Lo que sobra es épica barata. Muchas empresas no necesitan más
evangelistas del algoritmo. Necesitan menos numerología de consultoría y más
métricas que se puedan mirar sin que te entre la risa.
La IA no hace milagros. Hace cosas útiles. Y eso,
bien medido, ya sería bastante. El problema es que hay quien gana más dinero
prometiendo prodigios que demostrando resultados.
Y ahí, amigos y amigas, empieza el negocio .
.
Bibliografía
Federal Reserve Bank of St. Louis. The Impact
of Generative AI on Work and Productivity (2025). Base útil para la cifra
de ahorro medio de tiempo entre usuarios de IA generativa.
OpenAI. Klarna case study. Fuente para los
datos de atención al cliente, tiempos de resolución, cobertura idiomática y
estimación de impacto económico comunicada por la empresa.
Klarna. AI assistant handles two thirds of
customer service chats in its first month (comunicación corporativa).
Refuerza los datos operativos del caso Klarna y ayuda a distinguir entre
métricas observadas y estimaciones.
Lloyds Banking Group. AI-driven benefits
(2026). Referencia para el valor comunicado por la entidad en 2025 y las
expectativas para 2026. Útil para hablar de “valor atribuido” frente a “dato
observado”.
Bank of England y FCA. Artificial Intelligence
in UK Financial Services – 2024 survey. Soporte para la adopción amplia de
IA en servicios financieros y para el bloque específico de banca/finanzas.
EEOC. iTutorGroup to pay $365,000 to settle
EEOC discriminatory hiring suit. Fuente clave para el ejemplo de sesgo y
discriminación algorítmica en selección.
American Bar Association. BC Tribunal Confirms
Companies Remain Liable for Information Provided by AI Chatbot (análisis
del caso Air Canada). Apoya la idea de responsabilidad empresarial por
información errónea ofrecida por chatbots.
The Guardian. Air Canada chatbot lawsuit
(2024). Fuente periodística complementaria para contextualizar el caso Air
Canada y sus implicaciones prácticas.
Bank of America Newsroom. AI adoption by
BofA’s global workforce improves productivity… y comunicaciones posteriores
sobre Erica. Respaldo para uso interno de IA, productividad y escala de uso en
banca.
JPMorgan Chase. 2024 Investor Day / annual
materials. Soporte para usos de IA/ML en fraude, riesgo y operaciones, y
para las cifras comunicadas de prevención de pérdidas ligadas a fraude/scams.
Microsoft Customer Stories (Lenovo, HARTING,
YASNO). Casos útiles para productividad en soporte, reducción de tiempos de
diseño y mejora operativa en atención y operaciones.
AWS Case Study. Natura &Co / IA generativa.
Fuente para el caso de búsqueda inteligente y apoyo a la fuerza comercial
distribuida.
Siemens. Materiales y casos sobre predictive
maintenance y copilotos industriales. Respaldo para la parte de
mantenimiento predictivo y operación industrial.


No hay comentarios:
Publicar un comentario