lunes, 6 de abril de 2026


 Art 13/26. La madurez en la IA no se mide en el número de licencias, sino en los cambios medibles.

Durante meses, demasiadas empresas han hecho con la IA lo que el corporativismo hace mejor cuando llega algo grande: convertir una sacudida histórica en una colección de demos, licencias, pilotos y frases huecas en presentaciones. Mucho dato sin valor. Mucha foto. Mucha proyección . Y poca verdad incómoda. Porque no, una organización no es madura en inteligencia artificial porque haya desplegado un piloto con IA, abierto un buzón de casos de uso o montado un comité con nombre futurista. Es madura cuando puede demostrar, con datos, que la IA está cambiando cómo se trabaja, cómo se decide, cómo se controla los riesgos y cómo se genera valor. Lo demás es, lamentablemente, maquillaje digital.

El problema no es que falte IA, ¡será por modelos!. El problema es que sobra autosugestión. Algunos estudios que os dejo al final del artículo,  dejan una fotografía bastante elegante, pero también bastante contundente: las organizaciones avanzan en estrategia y gobernanza más que en transformación profunda del trabajo, y el gran agujero sigue estando en talento y experiencia de empleado. En el del Barómetro de la IA (primera entrada), la media del eje de estrategia se sitúa en 2,94 sobre 5, la de cultura y liderazgo en 2,75, la de gobernanza en 2,89 y la de IA aplicada a talento cae a 2,30. Traducido al castellano llano: muchas empresas ya han aprendido a hablar de IA; bastantes incluso han aprendido a ordenarla; pero muy pocas han aceptado todavía que la IA exige rediseñar la organización de verdad. Hablamos de cambios profundos.

Y ahí empieza lo serio. Porque cuando uno rasca un poco, aparece la grieta que muchos intentan tapar con entusiasmo corporativo: la estrategia declarada va por delante del rediseño real. El citado barómetro lo dice con bastante claridad. La estrategia corporativa de IA alcanza un 3,46, pero el rediseño de roles, funciones y modelos organizativos se queda en 2,30. Es decir, ya sabemos decir que la IA es estratégica, pero todavía nos cuesta muchísimo aceptar sus consecuencias estructurales. Queremos productividad sin tocar el trabajo. Queremos automatización sin tocar los procesos. Queremos agentes sin tocar los controles. Queremos transformación… sin transformarnos. Y eso no es lo que buscábamos.

Eso explica la razón del artículo de hoy, el porqué resulta tan necesario hablar de medición. Porque cuando una organización no mide bien la IA, casi siempre termina midiendo tonterías. Cuenta licencias activadas. Cuenta cursos impartidos. Cuenta asistentes desplegados. Cuenta prompts. Cuenta pilotos. Pero casi nunca responde a las preguntas que realmente importan:

  • ¿Qué valor ha generado?. Clave

  • ¿Qué trabajo se ha rediseñado?. Ojo

  • ¿Qué errores ha evitado?. Sí, no todo son alegrías

  • ¿Qué riesgos ha abierto?. Porque aparecerán

  • ¿Qué decisiones siguen siendo humanas?. Las importantes deberían

  • ¿Qué funciones han cambiado?. Si cambiamos , cambiamos de verdad.

  • ¿Qué sesgos ha reducido o amplificado?. Ya sabéis que los tiene, ¿verdad?

  • ¿Qué parte del negocio funciona hoy mejor gracias a la IA y no solo más rápido?. No confundamos los términos.

Todo lo citado marca la diferencia entre medir actividad y medir impacto. Y es la frontera exacta entre la adolescencia digital y la madurez empresarial.

Vamos por partes

De hecho, ese informe deja una frase contundente, aunque la formule con educación institucional: “el acceso a herramientas supera a la transformación organizativa”. Muy fino el redactado. Es una forma muy sutil de decir algo bastante salvaje: los empleados ya tienen IA en las manos, pero las empresas todavía no han rehecho el sistema para sacar partido de eso. La IA ya circula por la operativa diaria, pero los modelos de gestión, especialmente en Recursos Humanos, siguen sin haberse rediseñado plenamente. Y eso no es un matiz. Eso es el corazón del problema.

Porque uno de los grandes errores que se están extendiendo es este: creer que la integración de la IA consiste en dar acceso. No. Dar acceso no es integrar. Dar acceso es repartir llaves. Integrar es rehacer la casa. Integrar significa cambiar flujos de trabajo, redistribuir tareas, redefinir supervisión, crear nuevos criterios de calidad, revisar tiempos de decisión, ajustar accountability, reentrenar liderazgo y rehacer mapas de competencias. Si eso no ocurre, la IA no transforma la empresa. Se limita a orbitar alrededor de ella como un satélite caro e infrautilizado.

Aquí conviene ponerse un poco menos ingenuo/a. Los marcos serios van justo en esa dirección. NIST no plantea la IA como una simple cuestión técnica, sino como un sistema de riesgos que afecta a individuos, organizaciones y sociedad, y propone gestionarla de forma continua mediante funciones de gobernar, mapear, medir y gestionar. O sea: contexto, control, seguimiento y corrección. No quedarnos en los titulares. Ni en un entusiasmo sin método. Nada de “ya veremos”.

ISO/IEC 42001 remata la idea desde otro ángulo: si quieres hablar en serio de madurez en IA, necesitas algo más que buenas intenciones o políticas bonitas. Necesitas un sistema de gestión de IA. Es decir, requisitos para establecer, implementar, mantener y mejorar continuamente cómo desarrollas, usas o despliegas IA. Dicho sin rodeos: una organización madura no tiene solo una política; tiene un sistema que aguanta auditoría, escala, incidentes y cambios de contexto sin venirse abajo.

Y Europa, por si alguien aún cree que esto va solo de inspiración o cultura digital, también aprieta por donde debe. La Comisión Europea recuerda que el AI Act exige que proveedores y deployers tomen medidas para asegurar un nivel suficiente de alfabetización en IA de su personal y de quienes operan estos sistemas en su nombre, teniendo en cuenta experiencia, formación y contexto de uso. Esto ya no va de “ser modernos”. Va de responsabilidad operativa, cumplimiento y capacidad real de uso.

Ahora bien, tampoco conviene caer en otra trampa muy habitual: confundir formación con madurez. Formar es necesario. Pero formar no basta. Un curso no rediseña un proceso. Gran error que muchas organizaciones no terminan de entender. Un taller no corrige un modelo de decisión. Una sesión inspiradora no arregla una mala arquitectura organizativa. El World Economic Forum lleva tiempo avisando de que las brechas de skills son una de las mayores barreras para la transformación empresarial y sitúa AI and big data y technological literacy entre las capacidades con mayor crecimiento previsto. Eso está muy bien. Pero el punto no es solo enseñar a usar IA. El punto es qué organización construyes después de enseñar a usarla.

Empezar a medir el impacto real

Por eso me parece que este es el momento de hacer una pausa quizá incómoda pero necesaria. Antes de seguir comprando herramientas, antes de seguir celebrando pilotos, antes de seguir compartiendo casos de éxito con más humo que métrica, toca hacerse una pregunta adulta: ¿sabemos realmente cómo medir la madurez de nuestra integración de la IA? Porque si la respuesta es no, entonces no sabemos ni dónde estamos, ni qué funciona, ni qué falla, ni qué riesgos estamos tolerando a ciegas.

Y aquí viene lo importante. Medir el impacto de la IA no es solo una cuestión de control. Es una cuestión de honestidad. Obliga a separar el ruido del valor. Obliga a distinguir entre experimentación y escalado. Obliga a identificar si la IA está mejorando calidad o solo acelerando errores. Obliga a ver si estamos elevando capacidades o generando dependencia ciega. Obliga a detectar si el liderazgo la impulsa de verdad o simplemente la bendice desde lejos. Obliga, en definitiva, a abandonar la adolescencia corporativa de la fascinación y entrar en la adultez de la evidencia.

Porque la IA ya no necesita más cheerleaders. Necesita mejores métricas más allá de licencias compradas.

Necesita empresas que sepan si sus casos de uso generan valor real o solo actividad. Necesita organizaciones capaces de demostrar que han rehecho procesos y no solo interfaces. Necesita funciones de Personas que dejen de mirar la IA como un accesorio y empiecen a incorporarla en la arquitectura completa del ciclo de vida del empleado. Necesita liderazgo que no solo hable de IA, sino que la use, la entienda, la limite cuando toque y la exija donde aporta. Y necesita gobernanza que no mate la innovación, pero tampoco permita que la innovación se convierta en una fábrica elegante de riesgos.

Concluyendo (de momento)

Mi impresión, bastante clara, es que muchas empresas están justo en ese punto delicado: ya no pueden permitirse seguir jugando a “estamos explorando”, pero todavía no se atreven a someter la IA a un examen serio de impacto. Y eso tiene lógica. Medir de verdad da vértigo. Porque cuando mides de verdad, descubres dos cosas incómodas: que parte de lo que presentabas como avance era solo ruido, y que la transformación de fondo exige tocar estructuras, incentivos y poder. Y eso ya no se arregla con la presentación del principio.

Así que esta primera entrega va exactamente de eso: de poner sobre la mesa que antes de presumir de madurez en IA hay que decidir cómo demonios se mide esa madurez. No para hacer burocracia. No para poner otra capa de reporting inútil. Sino para distinguir, de una vez, entre las organizaciones que están integrando la IA con sentido y las que simplemente la están paseando por los pasillos con una chapa de innovación colgada al cuello.

En la segunda entrega -próxima semana- bajaré a tierra esa discusión y compartiré una lista de KPIs para medir la madurez en la integración de la IA en las empresas. No una lista cosmética para quedar bien en un comité. Una lista que espero sea útil para saber si la IA está generando valor, rediseñando trabajo, preparando personas y operando bajo control. Porque si no sabemos medir el impacto, no sabemos gestionar la transformación. Y si no sabemos gestionar la transformación, entonces la supuesta “madurez en IA” no es madurez. Es marketing con conexión WiFi.

A eso no le llamaría yo precisamente madurez. Eso es, muchas veces, maquillaje digital con presupuesto.

La pregunta seria, por tanto, no es cuánta IA has desplegado. La pregunta seria es esta:

¿Qué está cambiando de verdad en tu organización gracias a la IA… y cómo lo estás midiendo?

Creo que ha llegado el momento de dejar de hablar solo de adopción y empezar a hablar de impacto medido.

Porque, muchos/as lo sabéis, lo que no se mide bien

  • no se gobierna,

  • no se escala,

  • no se corrige,

  • y casi siempre se sobrevende.

Una empresa no madura en IA por comprarla

Madura cuando empieza a medir el cambio.

#InteligenciaArtificial #IA #TransformacionDigital #Liderazgo #RRHH #Talento

Fuentes

  • NTT DATA & ISDI, II Barómetro de la IA y el talento en España: avance por ejes, brecha entre acceso a herramientas y transformación organizativa, y menor madurez en talento y experiencia de empleado.

  • NIST, AI Risk Management Framework (AI RMF 1.0): gestión de riesgos de IA para individuos, organizaciones y sociedad; enfoque de gobernar, mapear, medir y gestionar. (NIST)

  • ISO, ISO/IEC 42001: primer estándar internacional para sistemas de gestión de IA, con enfoque estructurado de riesgos, oportunidades y mejora continua. (ISO)

  • Comisión Europea, AI Literacy – Questions & Answers y portal del AI Act: obligación de asegurar un nivel suficiente de alfabetización en IA para personal y operadores. (Estrategia Digital Europea)

  • World Economic Forum, Future of Jobs Report 2025: las brechas de skills como gran barrera de transformación y auge de AI and big data y technological literacy. (World Economic Forum)



sábado, 28 de marzo de 2026


                Art 12/26. Cuando la IA necesita más FilosofIA


      Nos prometieron una revolución inteligente. Y vaya si ha llegado. La IA escribe, dibuja, decide, recomienda, resume y hasta parece pensar con más orden que muchos humanos con despacho, presupuesto y tarjeta de visita. El problema es que, mientras medio mundo sigue aplaudiendo sus prodigios como si estuviéramos en una feria tecnológica con barra libre, empieza a asomar una verdad bastante menos cómoda: quizá no necesitábamos solo máquinas más potentes. Quizá necesitábamos, antes que eso, una sociedad bastante menos ingenua. Porque cuando una tecnología empieza a rozar la verdad, la reputación, la intimidad, la infancia o el poder, ya no basta con que funcione. Tiene que saber convivir con límites. Y justo ahí es donde descubrimos que la IA, por sí sola, no se basta. Que necesita algo mucho más antiguo, mucho más incómodo y mucho menos vendible: FilosofIA.


Durante meses hemos asistido a un espectáculo bastante previsible. La inteligencia artificial escribe, dibuja, resume, traduce, programa, corrige, ordena, recomienda y encima lo hace a una velocidad que deja a más de uno con cara de haber descubierto fuego por primera vez.

Todo muy impresionante. Todo muy vendible. Todo muy de titular con música épica de fondo.

Pero después de hablar en artículos anteriores del odio, de la ira y del daño real que ciertas derivas tecnológicas ya están empezando a facilitar, toca decir algo menos sexy, menos marketiniano y bastante más importante:

a la IA le empieza a hacer falta más FilosofIA.

Sí. Filosofía.

Esa vieja conocida que muchos mandaron al trastero porque no programaba, no escalaba, no levantaba rondas y no parecía útil en un PowerPoint lleno de palabros en inglés. Pues resulta que ahora, justo ahora, cuando las máquinas parecen hacer cada vez más cosas, lo que más necesitamos no es solo más potencia.

Necesitamos más criterio.

Más sentido.

Más límites.

Más pensamiento incómodo.

Porque lo que está en juego ya no es únicamente si una IA responde mejor, genera imágenes más espectaculares o automatiza más tareas que la competencia. Eso está bien para una demo, para una keynote o para ese cuñado tecnológico que se viene arriba en las cenas.

La pregunta seria ya es otra:

¿qué estamos normalizando mientras aplaudimos?

Y esa ya no es una cuestión técnica.

Es una cuestión filosófica.

La inteligencia artificial sabe hacer cosas. Otra cosa es que sepa cuándo no debería

Este es uno de los grandes autoengaños de nuestra época.

Hemos confundido inteligencia con capacidad de cálculo, velocidad con comprensión y resultados con juicio. Y no, no es lo mismo. Ni de lejos.

Una IA puede producir textos excelentes sin entender una sola palabra de lo que significa la verdad. Puede generar una imagen emocionalmente devastadora sin comprender qué es la dignidad. Puede recomendar decisiones sin saber lo que pesa una injusticia. Puede sonar convincente sin tener ni idea de lo que dice. Y puede acertar muchas veces sin haber entendido jamás una sola consecuencia humana de sus actos.

Es decir: puede parecer brillante y seguir siendo ciega en lo esencial.

Y eso, sinceramente, debería preocuparnos bastante más de lo que preocupa.

Porque si una tecnología entra en terrenos donde toca reputación, infancia, intimidad, convivencia, salud mental, derechos, educación, trabajo o verdad pública, no basta con que funcione. Ni siquiera basta con que funcione muy bien.

Tiene que convivir con límites.

Y ahí es donde empieza la parte en la que ya no basta con ingenieros, producto y negocio celebrándose mutuamente en círculos.

Ahí empieza la parte en la que hacen falta ética, filosofía, derecho y una idea mínimamente decente de ser humano.

No todo lo que se puede hacer merece hacerse

Sé que esto suena poco moderno. Casi antiguo. Pero alguien tendrá que decirlo sin complejo alguno: no toda posibilidad técnica merece convertirse en práctica social.

Podemos crear deepfakes.
Podemos clonar voces.
Podemos automatizar propaganda.
Podemos fabricar intimidad falsa.
Podemos sexualizar digitalmente a personas reales.
Podemos erosionar derechos de autor a escala industrial.
Podemos construir sistemas que optimizan atención a costa de la salud mental o de la polarización.

Podemos, sí.

La cuestión no es si podemos.

La cuestión es si estamos tan deslumbrados por la capacidad que hemos dejado de preguntarnos por el coste moral, social y político de usarla.

Y aquí está una de las trampas más peligrosas del momento: hay demasiada gente confundiendo innovación con ausencia de freno. Como si poner límites fuera de cobardes, de viejos o de gente que “no entiende el futuro”.

Pues no.

En tecnologías con capacidad de amplificar daño, poner límites no es ir contra el futuro.

Es intentar que el futuro no se convierta en una barbaridad perfectamente optimizada.

La gran ironía: máquinas cada vez más listas, sociedades a veces cada vez más torpes

Esta parte me parece fascinante y bastante inquietante.

Nunca habíamos tenido herramientas tan potentes para acceder a conocimiento, automatizar tareas, mejorar procesos o generar contenido.

Y, sin embargo, nunca había sido tan visible lo mal que se nos da distinguir entre información y criterio, entre persuasión y manipulación, entre eficiencia y legitimidad.

La IA no está creando solo una revolución tecnológica.

Está provocando un examen moral.

Nos está obligando a preguntarnos qué tipo de sociedad somos cuando disponemos de herramientas descomunales y aun así seguimos tentados de usarlas para degradar, manipular, polarizar, copiar, suplantar o convertir la verdad en algo negociable.

Porque aquí está el núcleo del asunto: la IA no trae ética de serie.

No lleva conciencia instalada.

No incorpora prudencia por defecto.

No incluye compasión en la versión premium.

Lo único que hace, en buena medida, es amplificar capacidades. Y cuando una capacidad humana no va acompañada de criterio, el resultado puede ser espectacular. Sí. Pero espectacularmente peligroso.

La IA no inventa nuestros peores impulsos. Los escala

Este punto me parece clave para cerrar la trilogía.

En los textos anteriores ya aparecía una idea de fondo: el problema no son solo las máquinas. El problema es lo bien que pueden amplificar lo peor de nosotros cuando les damos el contexto adecuado y quitamos de en medio cualquier freno incómodo.

La IA no inventó el odio.
No inventó la ira.
No inventó la mentira.
No inventó la manipulación.
No inventó el narcisismo, la codicia ni la deshumanización.

Lo que sí puede hacer es darles volumen, velocidad, personalización y escala.

Y ahí cambia todo.

Porque una cosa es que un ser humano haga daño con sus limitaciones naturales. Y otra muy distinta es que disponga de sistemas capaces de multiplicar ese daño a velocidades industriales, con apariencia de neutralidad y bajo el envoltorio glamouroso de la innovación.

Por eso, cuando se habla de IA como si fuera simplemente una herramienta neutra, conviene hacer una pequeña pausa. Las herramientas nunca son del todo neutras cuando alteran incentivos, rebajan barreras, redistribuyen poder y hacen rentable lo que antes era más costoso o menos creíble.

Pensar lo contrario es infantil.

O interesadamente infantil.

FilosofIA no es postureo humanista

Aclaremos esto, porque ya nos conocemos y el mercado tiene mucha habilidad para convertir cualquier idea seria en merchandising de baja calidad.

Hablar de FilosofIA no es ponerse estupendo. No es citar a Aristóteles en una slide bonita. No es decorar una estrategia de IA con una frase de Séneca para que parezca que aquí se reflexiona mucho.

No.

Hablar de FilosofIA es hacer preguntas incómodas antes de desplegar una tecnología, no después del escándalo.

Es preguntarse:

  • qué modelo uso y por qué,
  • qué riesgos acepto y cuáles no,
  • qué derechos pueden verse afectados,
  • qué controles exijo al proveedor,
  • qué usos prohíbo internamente,
  • qué errores no pienso tolerar aunque mejoren la productividad,
  • qué parte de lo humano no quiero externalizar a una máquina por muy bien que funcione.

Eso sí sería filosofía aplicada.

Lo otro suele ser maquillaje corporativo con fondo azul y palabras como trustworthy, human-centric y responsible escritas en tipografía elegante mientras por detrás nadie ha cambiado prácticamente nada.

La batalla importante no será por quién tiene la IA más potente

Nos están entreteniendo bastante con la carrera de capacidades. Qué modelo razona mejor. Qué otro genera mejores vídeos. Cuál responde más rápido. Cuál automatiza más. Cuál impresiona más en benchmarks que casi nadie fuera del sector sabría explicar del todo.

Y mientras tanto, la discusión verdaderamente importante avanza más despacio de lo que debería:

qué tipo de límites necesita una sociedad para no entregarle demasiadas cosas a sistemas que no entienden el bien, el mal, la justicia, la verdad ni la dignidad.

Esa es la conversación adulta.

La otra, siendo sinceros, se parece demasiado a una feria de vanidades con servidores de fondo.

Porque el modelo más espectacular no será necesariamente el más valioso.

Cada vez tengo más claro que en los próximos años no ganará solo quien tenga la IA más brillante, sino quien sea capaz de demostrar que sabe convivir con límites, con trazabilidad, con escrutinio, con derechos y con algo muy poco glamouroso pero completamente esencial: responsabilidad.

Nos hace falta menos fascinación y más madurez

Creo que ese es el resumen profundo.

Hemos hablado mucho de lo que la IA puede hacer.

Ha llegado el momento de hablar con la misma intensidad de lo que no debería facilitar, de lo que no deberíamos tolerar y de las renuncias que una sociedad decente tendría que estar dispuesta a defender, aunque eso ralentice un poco la fiesta.

Porque el problema nunca fue que la tecnología avanzara.

El problema empieza cuando el juicio moral retrocede.

Y quizá ahí está la madre del cordero: hemos construido herramientas cada vez más potentes en una cultura que a veces premia más la velocidad que la sabiduría, más la escala que la responsabilidad y más el impacto que el sentido.

Mala combinación.

Muy mala.

Fuentes:

  • Real Academia Española – Diccionario de la lengua española
  • Vosoughi, S., Roy, D., Aral, S. (2018). The spread of true and false news online. Science
  • Oxford Internet Institute – Global Disinformation Order
  • Suler, J. (2004). The Online Disinhibition Effect. CyberPsychology & Behavior
  • Reglamento europeo de Inteligencia Artificial (AI Act), especialmente artículos sobre transparencia, gobernanza y obligaciones para modelos de propósito general
  • AESIA – materiales explicativos sobre el AI Act
  • UNESCO – Recommendation on the Ethics of Artificial Intelligence
  • OECD – principios sobre inteligencia artificial confiable
  • Stanford Encyclopedia of Philosophy – entradas sobre ética, responsabilidad moral y filosofía de la tecnología


Infografia creada con IA a partir de texto humano

                        Video creado con Notebook LLM a partir de texto humano

 Art 13/26. La madurez en la IA no se mide en el número de licencias, sino en los cambios medibles. Durante meses, demasiadas empresas han h...