viernes, 6 de marzo de 2026


 

  Art 9/26. La IA y los resultados milagrosos: nos presentan cuentas… y a veces son cuentos.

O cómo algunos estudios convierten una estimación en una “evidencia”.

Hay una cosa que conviene decir ya, sin incienso ni atractivas presentaciones : la inteligencia artificial sí está dando resultados reales en empresas. Sí, funciona. A veces muy bien. Pero alrededor de esa verdad se ha montado también un pequeño parque temático de la exageración, donde una mejora puntual se convierte en “revolución”, una proyección se presenta como “dato” y una estimación con varios supuestos discutibles acaba desfilando por los diferentes comités como si hubiera bajado del monte Sinaí grabada en piedra.

Y ahí está el truco.

Porque no es lo mismo un dato observado que una estimación interna. Y no es lo mismo una estimación interna que una promesa de valor futuro. Ya sé que estoy diciendo obviedades, pero media industria vive de emborronar esa frontera con una soltura digna del mejor prestidigitador con un MBA.

Entrando en materia

Para entendernos: el Federal Reserve Bank of St. Louis publicó que los trabajadores que usaron IA generativa declararon haber ahorrado de media un 5,4% de su tiempo de trabajo semanal, unas 2,2 horas sobre una semana de 40 horas. Eso es interesante. Mucho. Pero significa exactamente eso: que en esa medición, esos usuarios dijeron haber ahorrado ese tiempo. No significa que “la IA vaya a mejorar la productividad de todas las empresas un 5,4%”. No significa que puedas recortar plantilla un 5,4%. No significa que tus márgenes vayan a engordar solos mientras tú te haces fotos con el trofeo de innovación que seguro te entregarán. Significa lo que significa. El resto ya es literatura de cualquier aeropuerto con un logo corporativo.

Pero no nos quedemos con esto solo. También encontramos casos reales, que sí enseñan cosas útiles. Klarna, por ejemplo, comunicó que su asistente de IA hacía el trabajo equivalente al de 700 agentes a tiempo completo, que resolvía gestiones en menos de 2 minutos frente a los 11 minutos anteriores, que operaba en 23 mercados y en más de 35 idiomas, y que estimaba una mejora de 40 millones de dólares en beneficio para 2024. La palabra importante aquí no es “40 millones”. La palabra importante es “estimaba”. Porque una estimación no es una cifra auditada de impacto contable limpio. Es una atribución probable basada en supuestos. Y ahí es donde muchas consultoras hacen su agosto en febrero: cogen una mejora real, la anualizan, la inflan con adopción teórica perfecta, le descuentan cero fricciones humanas y te la venden como certeza estadística con una tipografía elegante.

¿Qué es lo que pasa?

La jugada suele ser esta. Se detecta que una herramienta ahorra unos minutos por tarea. Después se asume (sin más)  que ese ahorro se produce siempre, en toda la plantilla, todos los días, con el mismo nivel de adopción, sin errores, sin verificaciones extra, sin retrabajos y sin costes de implantación. Luego alguien multiplica por número de empleados, por días laborables, por coste hora, por ilusión acumulada, y aparece una diapositiva que dice algo así como “impacto potencial anual: 12,7 millones”. Y ya está , se ha operado el milagro. O, dicho con más precisión, ya tenemos una hoja de Excel disfrazada de aparición mariana.

No estoy diciendo, ni mucho menos, que todas las consultoras se dediquen a esto. De hecho la mayoría de la que conozco son serías y te recalcan el “estimado”.  Sería demasiado sencillo y hasta injusto. Lo que digo es algo más interesante: algunas no mienten del todo, pero cuentan las cosas de forma que te empujan a creer más de lo que los datos realmente permiten concluir. Y eso, en la práctica, se parece muchísimo a vender humo, eso sí,  premium.

En empresa, la IA da resultados sobre todo donde hay tareas repetibles, procesos definidos y una métrica que no necesita traductor simultáneo. Atención al cliente, clasificación documental, soporte a empleados, detección de fraude, búsqueda interna, mantenimiento predictivo, ayuda al desarrollo de software. Ahí sí suele haber mejoras visibles porque puedes comparar antes y después sin invocar a ningún espíritu o hacer un acto de fe. Cuando una organización dice que ha bajado tiempos de gestión, acelerado consultas o reducida fricción operativa, y además te enseña cómo lo ha medido (esta es la clave),  eso ya merece respeto.

El mundo real 

El problema aparece cuando el mercado confunde tres niveles distintos: uso, impacto y valor económico atribuido. Que una empresa use IA no quiere decir que haya transformado su negocio. Que un equipo ahorre tiempo no significa automáticamente que ese tiempo se haya convertido en productividad neta. Y que alguien hable de “valor generado” no aclara por sí solo si habla de ingresos, ahorro de costes, capacidad liberada, riesgo evitado o una mezcla creativa de todo lo anterior con un poco de optimismo ejecutivo.

Lloyds Banking Group, por ejemplo, comunicó en enero de 2026 que la IA generativa había aportado alrededor de 50 millones de libras de valor en 2025 y que esperaba más de 100 millones adicionales en 2026. A ver, de primeras, está bastante bien formulado, porque distingue lo ya comunicado como valor de lo esperado para el año siguiente. Eso es más serio que la típica fanfarria del “la IA ya nos está revolucionando el negocio” sin explicar ni cómo, ni cuánto, ni con qué definición de “valor”. Pero incluso en un caso relativamente bien contado como este, un lector adulto debería hacerse la pregunta buena: ¿valor medido cómo exactamente? Porque “valor” es una palabra maravillosa: cabe casi todo dentro y queda estupenda en cualquier nota de prensa.

En finanzas, además, el asunto exige todavía menos poesía y más precisión. El Banco de Inglaterra y la FCA señalaron en su encuesta de 2024 que el 75% de las firmas de servicios financieros ya usaban IA y otro 10% planeaba usarla en los tres años siguientes. Eso sí es relevante. Eso ya no es moda, ni hacer un piloto simpático, ni crear un juguete para el laboratorio de innovación montándoles un futbolín (ojo, esto yo le visto en alguna empresa). Eso es adopción sectorial amplia. Pero justamente por eso hay que vigilar mejor el lenguaje. Cuando una tecnología se normaliza en banca, seguros o pagos, el problema deja de ser si “mola” y pasa a ser si está bien gobernada, bien medida y bien explicada.

Porque en finanzas una mala cifra no es una anécdota. Puede ser una bomba que estalle cuando menos se espera.

Y los riesgos no son teóricos. El caso de Air Canada fue un bofetón pedagógico. Su chatbot dio información incorrecta sobre una tarifa por duelo y la empresa fue considerada responsable por esa información. La lección es tan simple que casi ofende tener que repetirla: si el bot le habla al cliente en nombre de la empresa, la responsabilidad sigue siendo de la empresa. No puedes poner un loro digital a atender y luego fingir sorpresa cuando el loro te mete en un tribunal.

Algo parecido, pero más serio todavía, pasó con iTutorGroup. La EEOC cerró un acuerdo por 365.000 dólares tras alegar que el software de selección rechazaba automáticamente a mujeres de 55 o más años y a hombres de 60 o más. Esto desmonta otra majadería bastante extendida: la idea de que la IA, por sonar matemática, viene bendecida con objetividad divina. No. Y esto lo he repetido en muchos de mis artículos. Si alimentas el sistema con reglas torpes o sesgos históricos, lo que automatizas no es la neutralidad. Es la discriminación, pero más deprisa y con un imponente dashboard.

Mi opinión

Mi opinión es muy clara. La IA sí está generando valor real en empresas. Lo hace mejorando procesos, quitando trabajo mecánico, acelerando consultas, ayudando a empleados y afinando operaciones. Pero alrededor de esa realidad se ha creado una imagen paralela de estimaciones hinchadas, causalidades imaginarias y números presentados con una solemnidad que no merecen. En demasiados sitios, la presentación factura más que la evidencia.

Por eso, cuando alguien te venga con un titular glorioso del tipo “la IA generará X millones” o “equivale al trabajo de cientos de personas”, conviene hacer cinco preguntas que suelen arruinar bastante la fiesta. ¿Qué parte es dato observado? ¿Qué parte es atribución interna? ¿Qué parte es proyección? ¿Qué costes y errores se han descontado? ¿Y qué ha pasado de verdad en el día a día, no en la slide?

Si esas respuestas no aparecen, no estás ante evidencia robusta. Estás ante una narrativa de venta con perfume analítico.

Y aquí va la tesis de fondo, la mía, la que defiendo que se parece más a la verdad: la IA no necesita que la exageren. Ya es suficientemente útil cuando se aplica con cabeza. Lo que sobra no es tecnología. Lo que sobra es épica barata. Muchas empresas no necesitan más evangelistas del algoritmo. Necesitan menos numerología de consultoría y más métricas que se puedan mirar sin que te entre la risa.

La IA no hace milagros. Hace cosas útiles. Y eso, bien medido, ya sería bastante. El problema es que hay quien gana más dinero prometiendo prodigios que demostrando resultados.

Y ahí, amigos y amigas, empieza el negocio .

.

Bibliografía

Federal Reserve Bank of St. Louis. The Impact of Generative AI on Work and Productivity (2025). Base útil para la cifra de ahorro medio de tiempo entre usuarios de IA generativa.

OpenAI. Klarna case study. Fuente para los datos de atención al cliente, tiempos de resolución, cobertura idiomática y estimación de impacto económico comunicada por la empresa.

Klarna. AI assistant handles two thirds of customer service chats in its first month (comunicación corporativa). Refuerza los datos operativos del caso Klarna y ayuda a distinguir entre métricas observadas y estimaciones.

Lloyds Banking Group. AI-driven benefits (2026). Referencia para el valor comunicado por la entidad en 2025 y las expectativas para 2026. Útil para hablar de “valor atribuido” frente a “dato observado”.

Bank of England y FCA. Artificial Intelligence in UK Financial Services – 2024 survey. Soporte para la adopción amplia de IA en servicios financieros y para el bloque específico de banca/finanzas.

EEOC. iTutorGroup to pay $365,000 to settle EEOC discriminatory hiring suit. Fuente clave para el ejemplo de sesgo y discriminación algorítmica en selección.

American Bar Association. BC Tribunal Confirms Companies Remain Liable for Information Provided by AI Chatbot (análisis del caso Air Canada). Apoya la idea de responsabilidad empresarial por información errónea ofrecida por chatbots.

The Guardian. Air Canada chatbot lawsuit (2024). Fuente periodística complementaria para contextualizar el caso Air Canada y sus implicaciones prácticas.

Bank of America Newsroom. AI adoption by BofA’s global workforce improves productivity… y comunicaciones posteriores sobre Erica. Respaldo para uso interno de IA, productividad y escala de uso en banca.

JPMorgan Chase. 2024 Investor Day / annual materials. Soporte para usos de IA/ML en fraude, riesgo y operaciones, y para las cifras comunicadas de prevención de pérdidas ligadas a fraude/scams.

Microsoft Customer Stories (Lenovo, HARTING, YASNO). Casos útiles para productividad en soporte, reducción de tiempos de diseño y mejora operativa en atención y operaciones.

AWS Case Study. Natura &Co / IA generativa. Fuente para el caso de búsqueda inteligente y apoyo a la fuerza comercial distribuida.

Siemens. Materiales y casos sobre predictive maintenance y copilotos industriales. Respaldo para la parte de mantenimiento predictivo y operación industrial.

 



       Escuchar en spotify

No hay comentarios:

     Art 9/26. La IA y los resultados milagrosos: nos presentan cuentas… y a veces son cuentos. O cómo algunos estudios convierten una est...