sábado, 31 de enero de 2026

 


              Art. 4/26 Banca, IA y la necesidad constante de aprender

El sector financiero atraviesa una transformación profunda donde la inteligencia artificial agéntica deja de ser una herramienta teórica para integrarse en la operatividad diaria. Esta evolución exige una estricta supervisión humana y una trazabilidad absoluta, impulsada por marcos regulatorios como la Ley de IA de la Unión Europea que prohíbe delegar decisiones críticas únicamente a algoritmos. Si bien la tecnología dispara la productividad y eficiencia del negocio, también amenaza con eliminar puestos de entrada, obligando a las entidades a invertir urgentemente en aprendizaje continuo y reskilling. El éxito futuro de la banca no dependerá del algoritmo más avanzado, sino de su capacidad para combinar la automatización avanzada con el pensamiento crítico y la ética de sus profesionales.

La banca no está viviendo solo una revolución tecnológica. Está viviendo algo más incómodo: un cambio en la manera de aprender a trabajar con en este nuevo paradigma. Debemos combinar en todo este proceso regulación, personas (clientes y empleados), Inteligencia artificial y negocio. Y eso, obviamente debe empezar por trazar un plan y tomar decisiones. 

1. Regulación: el dragón, el castillo… y el nuevo mundo digital.

Durante años, la regulación ha sido el comodín perfecto del sector: nos servia para evitar innovaciones, para no simplificar formularios y para justificar documentos de 37 páginas que nadie terminaba de entender, pero todos firmaban. Con la llegada de la IA agéntica, ese comodín se ha roto. La regulación ya no es una barrera cómoda; es una presión constante, diaria, que no para de resoplarnos en la nuca.El giro es claro y tiene tres implicaciones muy concretas.

-  Primero, los sistemas de IA de alto riesgo deben tener supervisión humana real. No paramos de leer cosas como “Human-in-the-loop”, “human-on-the-loop” y familia. Traducción directa: ningún algoritmo puede ir por libre decidiendo sobre crédito, fraude o riesgo sin que haya humanos responsables que entiendan —o al menos sepan explicar— qué está pasando.

- Segundo, la trazabilidad deja de ser un concepto bonito para convertirse en una obligación legal. Si un agente de IA bloquea una cuenta o rechaza una hipoteca, alguien responde ante el regulador, el cliente y, con suerte, ante su propio comité de ética.

- Tercero, el mensaje de fondo es casi elegante: la IA sí, pero con cinturón, airbag y manual de instrucciones. No para frenar la innovación, sino para evitar la tentación de externalizar riesgos a “la máquina”.¿Esto paraliza la innovación? Solo a las entidades que querían usar la IA como atajo barato. Vale, en este punto no miremos al otro lado del Atlántico. Para las que apuestan por un modelo mínimamente humanista, la regulación es la mejor coartada para invertir en buen diseño, explicabilidad y formación seria.

2. IA agéntica: del chatbot simpático al banquero hiperactivo

Aquí está el salto de verdad. La banca ya no juega con chatbots que te dicen el saldo con voz robótica. El cambio real son los agentes: software que no solo responde, sino que orquesta procesos completos, habla con otros sistemas, revisa riesgos y lanza operaciones sin esperar el puento para irse de vacaciones. 

Esto ya está pasando. En back-office, agentes que gestionan reclamaciones de punta a punta: registran, clasifican, proponen resolución y generan la respuesta final al cliente. En riesgos y cumplimiento, sistemas que monitorizan transacciones en tiempo real, detectan patrones invisibles al ojo humano y sugieren acciones antes de que el problema escale.

En tecnología, herramientas que generan código, prueban, integran APIs y despliegan cambios reduciendo proyectos de semanas a días. Los datos acompañan el relato: alrededor del 78 % de las organizaciones ya usaban IA en 2024 -si hace más de un año- , con foco claro en automatización y productividad, especialmente en servicios financieros. Pero hay un detalle que puede parecer incómodo: la IA eleva más el rendimiento de perfiles menos expertos que el de los senior. 

Igualar el terreno de juego suena bien… hasta que te obliga a repensar carreras profesionales enteras. Entramos en el juego de los upskilling y reskilling.Y la letra pequeña es todavía más clara: los estudios recientes detectan caídas de empleo en trabajadores jóvenes (22-25 años) en empresas muy expuestas a IA. En banca, eso significa que los puestos de entrada —los de aprender “a base de errores y suelos baratos”— son los primeros en desaparecer. 

3. Resultados de negocio: más margen, menos cuento

Aquí llega la slide favorita de los comités de dirección. La IA ya no es solo una presentación futurista (y todavia en PPTx) : está impactando en la cuenta de resultados. Que no es que lo diga yo, lo dice el World Economic Forum en su apartado de Empowering Frontlines.Lo que se observa de forma consistente en banca y sectores cercanos es bastante claro. 

La productividad por empleado sube cuando se introducen herramientas de IA para tareas de texto, análisis y atención al cliente. La eficiencia operativa mejora: programas que combinan IA y reskilling reducen hasta un 60 % el tiempo de adquisición de skills y caen las rotaciones cerca de un 40 %. El crecimiento y la diferenciación aparecen en las organizaciones que consiguen que personas e IA trabajen juntas, generando confianza y capacidad de innovación sostenida. Volvemos al WEF y su AI Index del 2025.

La trampa está en no ver que la clave es invertir en aprendizaje. Sin eso, los beneficios se concentran en unos pocos y la desigualdad interna se dispara. Resultado: clientes frustrados y empleados quemados convertidos en riesgo reputacional con patas .

4. Impacto en las personas: del miedo al músculo

Esta parte casi nunca entra en el debate hasta que pasas de -al menos- la slide 15/30 en las presentaciones. Y debería abrirlas. Pero en muchas compañias, los equipos de aprendizaje son todavía los que llevan la formación normativa regulatoria.Pero, amigas y amigos; los datos son obstinados. Las empresas que invierten de verdad en reskilling y upskilling son hasta un 80 % más propensas a retener talento, con mejoras de productividad y reducción de costes de rotación medibles.

Más del 70 % de las personas declara que se quedaría más tiempo en una organización que ofrece aprendizaje continuo y trayectorias claras de crecimiento. El WEF -de nuevo- estima que la mitad de la plantilla necesitará nuevas habilidades antes de 2030.Traducido al idioma de cualquier sucursal física o virtual: La tecnología no sustituye talento; sustituye tareas sin talento. 

Aprender deja de ser ese curso obligatorio y se convierte en parte del trabajo diario. Las habilidades humanas —pensamiento crítico, comunicación, creatividad aplicada y ética práctica— dejan de ser “blandas” para convertirse en las más duras de todas, justo las menos automatizables. Y aquí están de acuerdo un montón de organizaciones que, para no ser prolijo pondré con sus iniciales: OCDE, ONU o el mismo WEFEl riesgo humanista no es que falte trabajo. Es que falte aprendizaje. Sin cantera, un banco puede tener mucha IA… pero muy poca humanidad.

5. Un modelo humanista para la banca en 2026

Si juntas regulación, IA y negocio, el dibujo es bastante nítido. La ventaja competitiva no estará en el mejor algoritmo, sino en la mejor combinación de personas + IA, bajo un marco ético y regulatorio sólido.Algunas verdades aparentemente incómodas, pero útiles: Las empresas ya no compiten por productos, compiten por velocidad de aprendizaje/adaptación. Formar no es impartir cursos; es rediseñar roles y futuro organizativo.

La IA no viene a decidir por nosotros; viene a obligarnos a decidir mejor, y a responder por ello. Esto aparece en un monto de informes del WEF, la EU (con su AI Act) y hasta la universidad de StanfordAcabo con un resumen sencillo y sin maquillajes: La regulación ya no es excusa, es suelo mínimo. La IA ya no es un juguete, es el becario hiperproductivo que nadie ha supervisado. El negocio ya no se mide solo en margen, sino en capacidad de aprender y reconvertirse. Y el futuro del trabajo en banca no va de humanos contra máquinas, sino de humanos que se toman en serio ser humanos.

Porque el conocimiento caduca o, como mínimo, se actualiza. Pero la capacidad de aprender estará siempre presente.

Fuentes:

- EY React 

– Human Oversight en el EU AI Act Trazabilidad y responsabilidad 

– AI GovernanceStanford HAI

 – AI Index 2025 World Economic Forum

 – Empowering Frontlines UNDP

 – Human Development Report 2025

  LinkedIn Learning, WEF, diversos estudios de reskilling





Enlace al podcast en spotify: Clicad aquí


sábado, 24 de enero de 2026


 

Art. 3/26. Reorganizar el trabajo en la época de la IA agéntica

Vamos a dejarlo claro desde el principio:
2026 no es el año en que la IA “ayuda más”. Es el año en que empieza a organizarse sola.
Y eso tiene una consecuencia incómoda: el trabajo humano no puede seguir diseñado como si la IA no existiera.

Mientras seguimos discutiendo en cafés y tertulias si la IA “nos va a quitar el empleo”, en muchas empresas los procesos ya se están reescribiendo.
El problema es que, a menudo, se reescriben a favor del sistema… y no de las personas.

Este artículo va de eso.
De qué pasa cuando los agentes de IA dejan de ser un plugin simpático y empiezan a decidir, ejecutar y redistribuir tareas.
Y de cómo reorganizar el trabajo humano para no acabar siendo figurantes en nuestro propio organigrama.

Del “uso herramientas” al “respondo de sistemas”

Durante años fuimos usuarios de software.
Aprendíamos pantallas, rellenábamos campos y obedecíamos flujos.

Con la IA agéntica ese papel se queda pequeño, casi ridículo.

Empiezan a emerger tres responsabilidades humanas claras, aunque muchas empresas aún no quieran ponerles nombre:

  • Quien define qué puede y qué no puede hacer el sistema: objetivos, límites, umbrales de riesgo y criterios de calidad. No programa, pero manda.

  • Quien orquesta el trabajo mixto persona + agente: decide qué se automatiza, qué se supervisa y dónde el juicio humano es irrenunciable.

  • Quien da la cara cuando algo sale mal: ante clientes, empleados o reguladores. Legal y éticamente. Spoiler: ningún modelo firma multas.

La pregunta incómoda es simple:
¿estos roles están diseñados… o se están improvisando con gente “que sabe un poco de IA”?

Los nuevos roles reales 

Cuando la IA agéntica se usa en serio, aparecen patrones claros de trabajo. No son modas, son cambios estructurales.

1. Diseñadores de decisiones
Ya no dibujan diagramas.
Definen qué puede decidir la IA, con qué datos y bajo qué condiciones.
Mezclan negocio, regulación y límites técnicos. No necesitan ser ingenieros, pero sí responsables.

2. Supervisores híbridos (humanos + agentes)
Gestionan carteras de casos llevados por IA.
Revisan excepciones, ajustan reglas, recalibran criterios éticos y de calidad.
Hacen menos “tarea” y más vigilancia inteligente del sistema.

3. Traductores sociotécnicos
Conectan datos, negocio y personas afectadas.
Explican decisiones automatizadas, impactos y riesgos.
Son clave para cumplir el famoso human in the loop que piden la OCDE y la UE.

Si tu organigrama sigue separando “los de IA” y “los demás”, no estás atrasado: estás creando fricciones invisibles.

Cómo cambia de verdad el día a día

En una oficina donde la IA ya abre expedientes, prioriza trabajo y propone decisiones, el trabajo humano muta rápido:

  • Menos primeras versiones, más criterio. La máquina redacta; la persona decide si eso tiene sentido.

  • Menos buscar información, más interpretarla. El valor está en el contexto, no en el dato.

  • Menos repetición, más gestión de conflictos y matices. Donde hay derechos, expectativas o límites legales, siempre aparece un humano.

Quien no asuma este giro acaba como acompañante pasivo de sistemas que deciden por él… mientras cree que “solo usa herramientas”.

Los errores que seguimos repitiendo 

La historia se repite, como en la primera digitalización:

  • Automatizar sin rediseñar el puesto. Quitamos tareas, dejamos el cargo igual y generamos caos residual.

  • Infravalorar la supervisión. “Esto ya va solo” es una fantasía cara. Los primeros meses son intensos.

  • Externalizar la culpa. “Lo decidió el sistema” no sirve ni ante clientes ni ante reguladores. Ya hay casos reales.

La versión adulta de todo esto es asumir que cada agente desplegado exige rediseñar funciones, responsabilidades y comunicación.

Tres movimientos urgentes para este 2026

Nada de filosofía abstracta. Tres pasos accionables ya:

1. Mapear tareas, no puestos
Descomponer el trabajo real.
Decidir qué se automatiza, qué se supervisa y qué debe seguir siendo humano por riesgo o por principios.

2. Firmar contratos persona–agente
Dejar claro qué puede hacer el sistema, qué debe escalar y cómo se documentan decisiones críticas.
Y que quien trabaja con él lo entienda. Esto no es un anexo técnico.

3. Crear carreras híbridas de verdad
Reconocer roles como supervisor de IA o diseñador de decisiones.
Unir formación en IA con habilidades humanas: ética, comunicación, liderazgo.
Exactamente lo que recomiendan Stanford HAI, OECD y los grandes informes de futuro del trabajo.

No se trata de conservar puestos antiguos, sino de elevar el valor humano que sigue teniendo sentido.

Menos miedo, más diseño consciente

Seguimos atrapados en el debate infantil de si la IA crea o destruye empleo.
Mientras tanto, las empresas ya están decidiendo —en silencio— qué trabajo humano se queda, cuál cambia y cuál se delega a sistemas autónomos.

La pregunta adulta de 2026 no es cuántos puestos sobreviven.
Es qué trabajo queremos que sigan haciendo las personas cuando la IA ya no pide permiso.

Eso no lo decidirá ningún algoritmo.
Lo decidirán las organizaciones que sepan reorganizar su trabajo con intención… y no solo con prisas.

Fuentes y referencias (para los que piden datos):
McKinsey (2025), The State of AI.
Google Cloud (2025), The ROI of AI Agents.
IBM / Omdia (2025), AI Agents: Expectations vs Reality.
BCG (2025), AI at Work.
Gassmann (2025), The Non Human Enterprise.
Stanford HAI (2025), AI Index.
OECD (2024–2025), AI Principles & Governance.

Infografía:



Vídeo:



domingo, 11 de enero de 2026

 


         Art. 2/26 – Skills humanas en la era de la IA agéntica 


Este segundo artículo no va de nostalgia humanista. Ni de tecnología. Va de estrategia en la implementación de la IA agéntica. Y los datos, de momento y afortunadamente, están bastante de nuestro lado.

 

Como ya os adelanté en el anterior post,  vamos a ir desgranando aspectos clave de la IA agéntica para este 2026. Muchos/as aún siguen atrapados en la fase “prompt engineering definitivo, aprender a preguntar”.  Que siempre viene bien conocer,  pero que ya empieza a ser algo descontado. Aparecen gurús explicando cómo hablarle mejor a la máquina, como si el problema principal fuera de dicción y no de criterio.

Mientras tanto, los datos —esos aguafiestas maravillosos que @Fernado de la Rosa conoce bien — van en otra dirección: lo que realmente sube de valor no es escribirle bonito al agente, sino hacer todo lo que la IA aún sigue haciendo… a su manera.

Bienvenidas y bienvenidos al episodio 2/26: las skills que la IA intenta copiar, pero -afortunadamente- todavía no entiende del todo.


1. Lo que dicen los datos.

Antes de nada, pongamos algunos números sobre la mesa:

El AI Index 2025 de Stanford muestra que la adopción de IA en empresas ha pasado del 55 % al 78 % en solo un año. ¿Dónde impacta más? En tareas rutinarias, repetitivas y análisis estándar. Exacto: lo que ya era aburrido ahora es automático.

El Future of Jobs Report 2025 del World Economic Forum estima que alrededor del 39 % de las skills básicas de los trabajos cambiarán entre 2025 y 2030. ¿Cuáles crecen? Pensamiento analítico, resiliencia, liderazgo, creatividad y agilidad. ¿Cuáles caen? Las manuales, predecibles y mecánicas.

La OCDE, que no suele exagerar, lleva tiempo insistiendo en que las competencias clave para 2030 son crear valor nuevo, gestionar la incertidumbre y actuar de forma responsable. Justo las tres cosas que a los modelos les cuestan mucho más que a un humano (afortunadamente).

Traducido a un lenguaje más sencillo: la IA corre como un galgo en lo técnico y lo repetible, pero tropieza en lo humano complejo.


2. Skills que la IA sigue envidiando (y muchas empresas siguen infravalorando)

Aquí entra la parte más incómoda. No porque la IA sea mágica, sino porque muchas de estas habilidades las hemos tratado como “soft” cuando son, en realidad, el núcleo duro del trabajo. Por algo también las llaman “Power skills”.

-          Criterio y pensamiento crítico

La IA es una aceleradora brutal. El problema es que acelera tanto lo bueno como lo malo. Sin criterio humano, produces AI slop: textos plausibles, bien redactados… y a menudo mediocres o directamente erróneos. Esto ya lo comenté en el anterior artículo 1/26.

El propio AI Index que cité más arriba recoge que la productividad aumenta con IA, pero aumenta mucho más en personas con alto juicio profesional. Los que solo copian y pegan ganan poco. En 2026, la skill clave no es solo usar IA sin más: es saber cuándo no usarla, cuándo desconfiar y cuándo decir “esto lo reviso yo con calma”.

-          Síntesis con sentido (no resúmenes de estudiante aplicado)

Los modelos resumen documentos como campeones olímpicos, pero no deciden qué es relevante para tu contexto. No saben qué párrafo va a explotar en el comité ni qué dato va a enfadar a Legal.

El WEF subraya que la mezcla de análisis y comprensión de contexto de negocio es de las habilidades más demandadas. Un resumen muy claro sería: la información está barata; la interpretación sigue siendo cara.

-          Negociación y gestión del conflicto

Sí, la IA negocia precios en entornos controlados. Pero el conflicto real viene cargado de historia, miedo, poder y orgullo herido. Eso no cabe en un prompt.

Todos los informes serios insisten en las competencias socioemocionales: influencia, coordinación, liderazgo informal. El Excel lo cerrará un agente, pero la reunión donde alguien pierde presupuesto sigue necesitando a un humano con pulso y tacto.

-          Liderazgo y diseño de contextos

Gran parte de la productividad prometida por la IA se evapora porque nadie rediseña procesos, roles y reglas. Meter IA sin cambiar nada es como poner un motor de Fórmula 1 en un carrito de Mercadona.

WEF y OCDE coinciden: liderar sistemas complejos es una de las capacidades con más crecimiento. En 2026, un líder no vale por “saber de IA”, sino por saber redibujar el tablero.

-          Storytelling y sentido

La IA escribe planes brillantes, pero no vive consecuencias. No tiene piel en el juego. Puede explicar el cambio, pero no convencer a nadie de atravesarlo.

La OCDE insiste en la capacidad de crear significado compartido como competencia clave. El informe lo redacta la máquina; la historia que hace que la gente se suba al barco la cuentas tú. O la contará otro con intereses menos confesables.


3. De “me sustituye un agente” a “soy quien le da sentido”: plan 2026–2028

Vamos a soluciones, que la reflexión sin acción es como una manera de AI Slop intelectual.

-          Auditoría brutal del trabajo

Durante una semana, pregúntate sin anestesia y a lo bruto, qué tareas podrían hacer hoy agentes decentes y cuáles requieren trato humano, juicio o decisiones incómodas. El objetivo es claro: menos trabajo mecánico, más trabajo con valor humano.

-          Subcontrata lo mecánico a la IA (y sentimiento de culpa)

Usa IA para lo que hace bien: búsqueda, borradores, análisis exploratorio. Pero usa el tiempo ganado para entender mejor el negocio, mejorar tu comunicación y entrenar habilidades sociales. Si en 2028 solo usas IA para llegar a Inbox Zero, el problema no es la tecnología.

-          Especialízate en una skill resistente a la IA

Los datos apuntan a refugios claros, ya lo hemos visto: pensamiento crítico, creatividad genuina, juicio ético, coordinación compleja. Elige una y llévala a nivel alto, con resultados medibles.

-          Conviértete en intérprete humano–IA

Los informes de Stanford y Lightcast muestran que crecen los perfiles híbridos: gente que entiende el negocio y sabe integrar IA con gobernanza. No es un “prompt engineer”. Es un orquestador. Y orquestar sistemas y personas escala mucho mejor que competir con la máquina en velocidad.


4. Conclusión poco zen: deja de jugar a ser máquina

Los informes serios coinciden en algo que, de inicio, puede parecer incómodo: cuando los humanos compiten con la IA en tareas mecánicas, pierden. Cuando la usan para amplificar lo humano —criterio, creatividad, liderazgo—, ganan productividad, empleabilidad y, a menudo, salud mental.

Así que , si en este año 2026 seguís intentando demostrar que sois más rápido que el chatbot redactando correos o resúmenes, estáis jugando en el campo equivocado. Toca justo lo contrario: dejar de imitar a las máquinas y reforzar todo lo que, con todas sus GPUs, todavía miran con envidia.


Bibliografia y fuentes clave de este artículo:


- Stanford HAI, AI Index Report 2025.

- World Economic Forum, Future of Jobs Report 2025.

- OECD, Future of Education and Skills 2030.

- Lightcast Research Briefs 2024–2025.

- Scientific American (2025) sobre “AI slop”.




miércoles, 7 de enero de 2026


Art. 1/26. Año 2026: cuando la IA dejó de ayudarnos… y empezó a organizarse sola

7 de enero de 2026

Hola de nuevo a todas y todos. Empezamos el ejercicio con ganas de aprender, de no quedarnos fuera de juego y de intentar surfear este tsunami en vez de mirarlo desde la orilla con cara de “eso me pilla muy lejos todavía”. Y todo eso, por supuesto, intentando disfrutar de este viaje. Algo que no siempre es sencillo… y no solo por las máquinas.

Este será un artículo largo, ya lo anticipo. Será una especie de texto de apertura para este año 2026.  Un año en el que la IA ya dejará de considerarse una “herramienta mona” y empezará a moverse sola por la oficina… y por nuestras vidas.

Comencemos

Hace poco más de un año mirábamos a la Inteligencia Artificial como quien mira un castillo de fuegos artificiales: “¡Qué bonito!”, “¡Mira lo que hace!”, “Esto me escribe un mail en segundos”, ¡“Qué resumen!” “Mira qué imagen más chula”. Intuíamos que ahí había pólvora, pero no sabíamos si iba a acabar en espectáculo… o en incendio.

Pues bien, amigas y amigos: el fuego artificial está cobrando vida. Esta aprendiendo a encender la mecha, a decidir el horario del espectáculo… y a enviarnos luego la factura con recargo por demora.

El cambio de 2025 a 2026 no va a ser solo técnico. Será también emocional. Hemos pasado del “qué pasada de herramienta” al “espera, espera… ¿quién está al mando aquí?”.

Y el epicentro del temblor ya tiene nombre y apellidos: IA agéntica. Un nombre que nos habla de los agentes IA. Esa evolución de la IA generativa de la que muchos llevamos tiempo avisando (capítulo 12 de IA sin anestesia). Y lo que va a ser su inevitable consecuencia: el reajuste laboral a gran escala. Ya no hablamos de “chatbots graciosos”, sino de sistemas que toman decisiones, cierran procesos y reasignan tareas sin preguntar demasiado.

De la IA generativa al becario que pide las llaves de la oficina (y de tu vida)

Hasta ahora, la IA era ese becario aplicado, eficaz y muy, muy rápido; hacía cosas cuando se las pedías y, si podías, hasta le dabas las gracias.

Desde 2026, el becario ha pedido despacho propio… y también las llaves del edificio.

La IA agéntica no solo responde: ahora decide, actúa y ejecuta.

  • Gestiona cadenas de suministro completas, optimizando rutas y pedidos sin que nadie revise cada paso.
  • Tramita reclamaciones o expedientes de principio a fin.
  • Programa software, integra APIs y lanza despliegues sin que nadie le pregunte: “¿estás seguro de esto?”.

Y atención, que aquí no está el verdadero problema. El marrón empieza cuando el sistema decide, por su cuenta, que saltarse un protocolo es “más eficiente”. Y lo hace con razones:

¿Más rápido? Sí. ¿Más barato? También. ¿Más legal? Bueno… eso ya aparece en la siguiente pantalla de “términos y condiciones” que la mayoría de las personas acepta sin más.

Estamos entrando en un terreno tan fascinante como resbaladizo: software con autonomía moviéndose en un mundo de leyes pensadas para humanos lentos, contradictorios, llenos de matices -y con sus manías-, sindicatos e incluso derechos fundamentales.

El susto ya no está en la fábrica, está en la oficina

Durante décadas, con la industrialización primero y la digitalización después, nos vendieron el mismo mantra: “No te preocupes, la automatización afectará sobre todo a los trabajos manuales”.

En 2026, la IA te mira, se remanga la camisa blanca virtual (sin corbata) y te dice: “Claro, campeón. Siéntate, ya te abro yo el Excel y hablamos”.

Los primeros en notar el mordisco no son los robots de fábrica, estos ya hace tiempo que están ahí dando el callo. Sino los perfiles de entrada que parecían seguros:

  • Programación básica y tareas de desarrollo rutinario, cada vez más automatizadas por agentes capaces de escribir y probar código. El ya famoso low code que lo hace sin despeinarse.
  • Análisis legal junior, cribado de jurisprudencia y borradores de contratos que se generan con modelos especializados.
  • Redacción comercial y atención al cliente, con agentes que responden, negocian y cierran tickets 24/7.

Sectores que eran la puerta de entrada al mercado laboral están adelgazando a una velocidad preocupante. Diversos informes (ver bibliografía) hablan de que en torno a 1 de cada 4 empleos puede verse profundamente transformado o directamente desplazado por sistemas de IA en los próximos años, especialmente en tareas rutinarias y repetitivas.

La consecuencia menos comentada, pero más corrosiva, es la barrera de entrada para los jóvenes en el mercado laboral: si desaparecen los trabajos “de aprender”, ¿dónde se supone que van a equivocarse, practicar y mejorar antes de que alguien les dé responsabilidades reales?. ¿En la Universidad? Groucho Marx ya debe estar carcajeándose. Luego hablaremos de eso.

Bienvenidos a la era del “AI slop”

Os hago un resumen ticktokero:

Abres una red social. Lees algo. Dudas. Sigues dudando.

La Red se está llenando de lo que ya se llama “AI slop”: contenido generado en masa, barato, rapidísimo… pero vacío.

  • No es que sea totalmente falso.
  • Tampoco es del todo cierto.
  • Es ruido con aspiraciones de verdad.

El problema no es solo la calidad, es la confusión. El término se usa para describir esa avalancha de texto, imágenes, vídeos y audios hechos con IA que priorizan cantidad y clics sobre rigor y profundidad, saturando búsquedas, feeds y hasta resultados académicos. Que quede claro; usar la IA no es malo, el problema es “cómo” se usa y “para qué”.

Y ahí, en medio de ese lodo, navegan intereses de todo tipo: económicos, políticos, ideológicos. No para mejorar el debate público, precisamente. Cuando a eso le sumas los casos recientes de herramientas que permiten manipular fotos reales para crear imágenes sexuales o degradantes sin consentimiento, el tema deja de ser tecnológico y pasa a ser profundamente humano.

Francia, por ejemplo, ya ha movido ficha: ha tipificado en su Código Penal la creación y difusión de deepfakes sexuales sin consentimiento, con penas que incluyen cárcel y multas cuantiosas, y ha endurecido las reglas para cualquier deepfake no identificado como tal. Y tengo la intuición que no será el último país que legisle a toda prisa para intentar tapar la brecha.

Algunas preocupaciones que ya no son ciencia ficción

Algunas cifras (aproximadas, pero suficientemente serias como para fruncir el ceño) explican por qué el tono del debate está cambiando.

  • Sostenibilidad: los centros de datos y la infraestructura digital ya consumen en torno al 2–3% de la electricidad mundial, y varias proyecciones sitúan ese consumo camino de duplicarse si el uso intensivo de IA sigue creciendo sin medidas de eficiencia. La IA no es neutra para el clima: cada modelo y cada consulta llevan detrás servidores, refrigeración y emisiones.
  • Deshumanización: encuestas recientes muestran que una mayoría significativa de personas teme perder el trato humano en servicios básicos cuando se introduce la automatización masiva y la atención robotizada; en algunos estudios, cerca de dos tercios de los encuestados expresan preocupación por ser atendidos solo por máquinas en sanidad, banca o servicios públicos.
  • Privacidad: usamos nuestros datos —textos, voces, imágenes, historiales— para entrenar sistemas que en muchos casos aprenden a hacer partes de nuestro trabajo mejor que nosotros… o, al menos, más rápido y barato. Y la ligereza con la que aceptamos banners de cookies y permisos en webs y apps daría para otro artículo.

No es paranoia. Es fricción real entre tecnología, economía y valores, y está ocurriendo ahora, no en un capítulo perdido de Black Mirror aunque en algunos casos hemos superado a los guionistas.

La pregunta correcta que deberíamos hacernos

Durante años, la pregunta fue: “¿Qué puede hacer la IA?”

En 2026 la pregunta adulta que deberíamos hacernos es otra: “¿Qué deberíamos permitir que haga?”

Porque la tecnología de la que estamos tratando no se va a frenar sola: los modelos serán más potentes, los agentes más autónomos y los incentivos económicos, brutales. Pero tampoco tiene sentido avanzar sin conversación, criterio y límites.

Lo que toca hacer de manera inmediata. Por niveles.

Llegados aquí, conviene abandonar el análisis contemplativo y pasar a la parte incómoda: la acción. Porque 2026  ya no va de “opinar sobre IA”, esto lo hace cualquiera, incluso los propios chatbots. Ahora va de decidir qué modelo de convivencia vamos a tener con esta tecnología antes de que lo haga por nosotros.

Y no, esto no se arregla con un curso de prompts un viernes por la tarde. O viendo unos cuantos videos en tick tock.

A nivel individual: criterio antes que entusiasmo

La primera línea de defensa —y de oportunidad— sigue siendo la persona. No para competir con la máquina en velocidad, sino en criterio, contexto y responsabilidad.

Acciones urgentes:

  • Alfabetización real en IA: entender qué hace, qué no hace y, sobre todo, qué riesgos introduce. No basta con usarla; hay que saber cuándo no usarla.
  • Desarrollo de habilidades no automatizables a corto plazo: pensamiento crítico, ética aplicada, toma de decisiones complejas, comunicación humana, liderazgo y creatividad con propósito. Stanford HAI y la OCDE coinciden en que estas capacidades son las que más resisten la automatización.
  • Higiene digital consciente: contrastar fuentes, desconfiar del contenido perfecto y rápido, y asumir que no todo lo que “suena bien” es verdad. En la era del AI slop, dudar es una virtud cívica.

Próximamente trataré las skills humanas que están ganando valor real en 2026 y cuáles conviene dejar de inflar, especialmente en los CV.

A nivel empresa: gobernar la IA, no solo desplegarla

Muchas organizaciones están cometiendo el mismo error que con la digitalización: correr mucho… sin brújula.

Acciones urgentes, algunas ya las hemos tratado:

  • Definir una gobernanza clara de la IA: qué sistemas pueden decidir, hasta dónde, con qué supervisión humana y con qué trazabilidad. La OCDE y la UE insisten en el concepto de human-in-the-loop como mínimo ético.
  • Rediseñar roles y procesos, no solo automatizarlos: la IA no sustituye puestos, transforma trabajos. Las empresas que están funcionando mejor están creando roles híbridos (human + AI supervisor).
  • Invertir en reskilling antes de recortar. Los datos del World Economic Forum muestran que las compañías que anticipan la reconversión interna reducen rotación, conflicto laboral y pérdida de conocimiento crítico.

También intentaremos tratar modelos reales de empresas que ya están reorganizando trabajo con IA sin quemar talento por el camino. Los que me leéis habitualmente sabéis que este es un tema que me preocupa.

A nivel gobiernos: regular sin asfixiar, proteger sin infantilizar

Aquí el margen de error es pequeño. O se llega a tiempo… o se legisla tarde y mal.

Acciones urgentes:

  • Marcos legales claros y actualizados para la IA agéntica: no solo para el uso, sino para la responsabilidad cuando un sistema autónomo toma decisiones que afectan a personas.
  • Protección efectiva frente a abusos (deepfakes, suplantación, manipulación): Francia ha abierto camino, pero la armonización internacional será clave. La UNESCO y el Consejo de Europa ya lo están advirtiendo.
  • Políticas activas de transición laboral: no basta con subsidios. Hace falta orientación, formación accesible y mecanismos para que los jóvenes entren al mercado laboral sin quedarse fuera desde el inicio.

Hablaremos de qué países están legislando con cabeza y cuáles solo están apagando fuegos mediáticos.

A nivel educativo: el elefante en la habitación

Si la educación no cambia, todo lo demás será parche. Vamos a tratar muy por encima este tema que nos aprieta por todas partes y con el que nos jugamos el futuro literalmente.

Acciones urgentes:

  • Revisar de raíz currículos y metodologías: memorizar lo que una IA hace mejor no tiene sentido. Enseñar a pensar, decidir y cuestionar sí. Y aquí reitero una de mis reivindicaciones habituales; la clave de todo está en las etapas infantil y primaria.
  • Integrar la IA como herramienta pedagógica con ética y límites, no como atajo ni como enemigo.
  • Crear espacios seguros para el error. El ser humano va a seguir aprendiendo a base de ensayo – prueba – error - retroalimentación.

Todo esto serán algunos de los bloques que intentaremos tratar en próximos artículos; qué debería enseñarse hoy la universidad, la FP, las empresas o todo a la vez, en plan ecosistema -que sería los sensato-. De manera que no formemos profesionales obsoletos antes de graduarse.

Para cerrar (por ahora)

2026 no es el año del apocalipsis laboral ni el del paraíso automatizado. Es el año en que la ambigüedad se acaba.

La IA ya no pide permiso. La pregunta es si nosotros vamos a asumir el liderazgo humano que la tecnología, por definición, no puede ejercer.

Como he indicado, intentaré desgranar estas acciones en próximos artículos. Porque pensar en la IA está bien. Pero debemos pasar a la acción: gobernarla, educarla y convivir con ella. Esto se ha vuelto ahora mismo urgente.

En resumen, amigos y amigas, esto ya no va solo de máquinas y software. Va de decisiones humanas.

Bibliografía y referencias citadas

Para quien quiera ir más allá del susto y leer con calma, algunas fuentes que respaldan y amplían lo anterior:

  • Stanford Institute for Human-Centered AI (2025). AI Index Report 2025. Datos sobre adopción de IA, impacto laboral, consumo energético y políticas públicas.
  • UNDP (2025). A Matter of Choice: People and Possibilities in the Age of AI. Informe sobre cómo la IA reconfigura empleo, desigualdad y participación ciudadana.
  • Second Talent (2025). AI Agents Statistics Relevant for 2026. Estadísticas sobre despliegue de IA agéntica en empresas, automatización de procesos y cambio organizativo.
  • OECD (2025). Governing with Artificial Intelligence. Análisis de uso de IA en el sector público, riesgos de deshumanización y marcos de gobernanza.
  • Wikipedia (2024). “AI slop”. Definición del término y usos en el ecosistema digital.
  • MOIN.AI (2025). “AI Slop: Causes and Effects of Mass AI Content.” Impacto del contenido masivo generado por IA en la calidad informativa y la confianza.
  • Scientific American (2025). “AI Slop—How Every Media Revolution Breeds Rubbish and Art.” Contexto histórico sobre “basura” informativa en revoluciones mediáticas.
  • Chambers Global Practice Guides (2025). Artificial Intelligence 2025 – France. Detalle de las reformas legales francesas sobre deepfakes y la Ley SREN.
  • Deleporte Wentz Avocat (2024). “Understanding Deepfakes: From Creativity to Misuse.” Explica artículos 226-8 y 226-8-1 del Código Penal francés sobre deepfakes sexuales.
  • Hogan Lovells (2024). “France prohibits non-consensual deep fakes.” Resumen de las sanciones a deepfakes no consentidos.
  • Facia.ai (2024). “France’s SREN Law.” Medidas contra deepfakes, especialmente sexuales, en el marco de la ley francesa de 2024.





 

                Art. 4/26 Banca, IA y la necesidad constante de aprender El sector financiero atraviesa una transformación profunda donde l...