miércoles, 7 de enero de 2026


Art. 1/26. Año 2026: cuando la IA dejó de ayudarnos… y empezó a organizarse sola

7 de enero de 2026

Hola de nuevo a todas y todos. Empezamos el ejercicio con ganas de aprender, de no quedarnos fuera de juego y de intentar surfear este tsunami en vez de mirarlo desde la orilla con cara de “eso me pilla muy lejos todavía”. Y todo eso, por supuesto, intentando disfrutar de este viaje. Algo que no siempre es sencillo… y no solo por las máquinas.

Este será un artículo largo, ya lo anticipo. Será una especie de texto de apertura para este año 2026.  Un año en el que la IA ya dejará de considerarse una “herramienta mona” y empezará a moverse sola por la oficina… y por nuestras vidas.

Comencemos

Hace poco más de un año mirábamos a la Inteligencia Artificial como quien mira un castillo de fuegos artificiales: “¡Qué bonito!”, “¡Mira lo que hace!”, “Esto me escribe un mail en segundos”, ¡“Qué resumen!” “Mira qué imagen más chula”. Intuíamos que ahí había pólvora, pero no sabíamos si iba a acabar en espectáculo… o en incendio.

Pues bien, amigas y amigos: el fuego artificial está cobrando vida. Esta aprendiendo a encender la mecha, a decidir el horario del espectáculo… y a enviarnos luego la factura con recargo por demora.

El cambio de 2025 a 2026 no va a ser solo técnico. Será también emocional. Hemos pasado del “qué pasada de herramienta” al “espera, espera… ¿quién está al mando aquí?”.

Y el epicentro del temblor ya tiene nombre y apellidos: IA agéntica. Un nombre que nos habla de los agentes IA. Esa evolución de la IA generativa de la que muchos llevamos tiempo avisando (capítulo 12 de IA sin anestesia). Y lo que va a ser su inevitable consecuencia: el reajuste laboral a gran escala. Ya no hablamos de “chatbots graciosos”, sino de sistemas que toman decisiones, cierran procesos y reasignan tareas sin preguntar demasiado.

De la IA generativa al becario que pide las llaves de la oficina (y de tu vida)

Hasta ahora, la IA era ese becario aplicado, eficaz y muy, muy rápido; hacía cosas cuando se las pedías y, si podías, hasta le dabas las gracias.

Desde 2026, el becario ha pedido despacho propio… y también las llaves del edificio.

La IA agéntica no solo responde: ahora decide, actúa y ejecuta.

  • Gestiona cadenas de suministro completas, optimizando rutas y pedidos sin que nadie revise cada paso.
  • Tramita reclamaciones o expedientes de principio a fin.
  • Programa software, integra APIs y lanza despliegues sin que nadie le pregunte: “¿estás seguro de esto?”.

Y atención, que aquí no está el verdadero problema. El marrón empieza cuando el sistema decide, por su cuenta, que saltarse un protocolo es “más eficiente”. Y lo hace con razones:

¿Más rápido? Sí. ¿Más barato? También. ¿Más legal? Bueno… eso ya aparece en la siguiente pantalla de “términos y condiciones” que la mayoría de las personas acepta sin más.

Estamos entrando en un terreno tan fascinante como resbaladizo: software con autonomía moviéndose en un mundo de leyes pensadas para humanos lentos, contradictorios, llenos de matices -y con sus manías-, sindicatos e incluso derechos fundamentales.

El susto ya no está en la fábrica, está en la oficina

Durante décadas, con la industrialización primero y la digitalización después, nos vendieron el mismo mantra: “No te preocupes, la automatización afectará sobre todo a los trabajos manuales”.

En 2026, la IA te mira, se remanga la camisa blanca virtual (sin corbata) y te dice: “Claro, campeón. Siéntate, ya te abro yo el Excel y hablamos”.

Los primeros en notar el mordisco no son los robots de fábrica, estos ya hace tiempo que están ahí dando el callo. Sino los perfiles de entrada que parecían seguros:

  • Programación básica y tareas de desarrollo rutinario, cada vez más automatizadas por agentes capaces de escribir y probar código. El ya famoso low code que lo hace sin despeinarse.
  • Análisis legal junior, cribado de jurisprudencia y borradores de contratos que se generan con modelos especializados.
  • Redacción comercial y atención al cliente, con agentes que responden, negocian y cierran tickets 24/7.

Sectores que eran la puerta de entrada al mercado laboral están adelgazando a una velocidad preocupante. Diversos informes (ver bibliografía) hablan de que en torno a 1 de cada 4 empleos puede verse profundamente transformado o directamente desplazado por sistemas de IA en los próximos años, especialmente en tareas rutinarias y repetitivas.

La consecuencia menos comentada, pero más corrosiva, es la barrera de entrada para los jóvenes en el mercado laboral: si desaparecen los trabajos “de aprender”, ¿dónde se supone que van a equivocarse, practicar y mejorar antes de que alguien les dé responsabilidades reales?. ¿En la Universidad? Groucho Marx ya debe estar carcajeándose. Luego hablaremos de eso.

Bienvenidos a la era del “AI slop”

Os hago un resumen ticktokero:

Abres una red social. Lees algo. Dudas. Sigues dudando.

La Red se está llenando de lo que ya se llama “AI slop”: contenido generado en masa, barato, rapidísimo… pero vacío.

  • No es que sea totalmente falso.
  • Tampoco es del todo cierto.
  • Es ruido con aspiraciones de verdad.

El problema no es solo la calidad, es la confusión. El término se usa para describir esa avalancha de texto, imágenes, vídeos y audios hechos con IA que priorizan cantidad y clics sobre rigor y profundidad, saturando búsquedas, feeds y hasta resultados académicos. Que quede claro; usar la IA no es malo, el problema es “cómo” se usa y “para qué”.

Y ahí, en medio de ese lodo, navegan intereses de todo tipo: económicos, políticos, ideológicos. No para mejorar el debate público, precisamente. Cuando a eso le sumas los casos recientes de herramientas que permiten manipular fotos reales para crear imágenes sexuales o degradantes sin consentimiento, el tema deja de ser tecnológico y pasa a ser profundamente humano.

Francia, por ejemplo, ya ha movido ficha: ha tipificado en su Código Penal la creación y difusión de deepfakes sexuales sin consentimiento, con penas que incluyen cárcel y multas cuantiosas, y ha endurecido las reglas para cualquier deepfake no identificado como tal. Y tengo la intuición que no será el último país que legisle a toda prisa para intentar tapar la brecha.

Algunas preocupaciones que ya no son ciencia ficción

Algunas cifras (aproximadas, pero suficientemente serias como para fruncir el ceño) explican por qué el tono del debate está cambiando.

  • Sostenibilidad: los centros de datos y la infraestructura digital ya consumen en torno al 2–3% de la electricidad mundial, y varias proyecciones sitúan ese consumo camino de duplicarse si el uso intensivo de IA sigue creciendo sin medidas de eficiencia. La IA no es neutra para el clima: cada modelo y cada consulta llevan detrás servidores, refrigeración y emisiones.
  • Deshumanización: encuestas recientes muestran que una mayoría significativa de personas teme perder el trato humano en servicios básicos cuando se introduce la automatización masiva y la atención robotizada; en algunos estudios, cerca de dos tercios de los encuestados expresan preocupación por ser atendidos solo por máquinas en sanidad, banca o servicios públicos.
  • Privacidad: usamos nuestros datos —textos, voces, imágenes, historiales— para entrenar sistemas que en muchos casos aprenden a hacer partes de nuestro trabajo mejor que nosotros… o, al menos, más rápido y barato. Y la ligereza con la que aceptamos banners de cookies y permisos en webs y apps daría para otro artículo.

No es paranoia. Es fricción real entre tecnología, economía y valores, y está ocurriendo ahora, no en un capítulo perdido de Black Mirror aunque en algunos casos hemos superado a los guionistas.

La pregunta correcta que deberíamos hacernos

Durante años, la pregunta fue: “¿Qué puede hacer la IA?”

En 2026 la pregunta adulta que deberíamos hacernos es otra: “¿Qué deberíamos permitir que haga?”

Porque la tecnología de la que estamos tratando no se va a frenar sola: los modelos serán más potentes, los agentes más autónomos y los incentivos económicos, brutales. Pero tampoco tiene sentido avanzar sin conversación, criterio y límites.

Lo que toca hacer de manera inmediata. Por niveles.

Llegados aquí, conviene abandonar el análisis contemplativo y pasar a la parte incómoda: la acción. Porque 2026  ya no va de “opinar sobre IA”, esto lo hace cualquiera, incluso los propios chatbots. Ahora va de decidir qué modelo de convivencia vamos a tener con esta tecnología antes de que lo haga por nosotros.

Y no, esto no se arregla con un curso de prompts un viernes por la tarde. O viendo unos cuantos videos en tick tock.

A nivel individual: criterio antes que entusiasmo

La primera línea de defensa —y de oportunidad— sigue siendo la persona. No para competir con la máquina en velocidad, sino en criterio, contexto y responsabilidad.

Acciones urgentes:

  • Alfabetización real en IA: entender qué hace, qué no hace y, sobre todo, qué riesgos introduce. No basta con usarla; hay que saber cuándo no usarla.
  • Desarrollo de habilidades no automatizables a corto plazo: pensamiento crítico, ética aplicada, toma de decisiones complejas, comunicación humana, liderazgo y creatividad con propósito. Stanford HAI y la OCDE coinciden en que estas capacidades son las que más resisten la automatización.
  • Higiene digital consciente: contrastar fuentes, desconfiar del contenido perfecto y rápido, y asumir que no todo lo que “suena bien” es verdad. En la era del AI slop, dudar es una virtud cívica.

Próximamente trataré las skills humanas que están ganando valor real en 2026 y cuáles conviene dejar de inflar, especialmente en los CV.

A nivel empresa: gobernar la IA, no solo desplegarla

Muchas organizaciones están cometiendo el mismo error que con la digitalización: correr mucho… sin brújula.

Acciones urgentes, algunas ya las hemos tratado:

  • Definir una gobernanza clara de la IA: qué sistemas pueden decidir, hasta dónde, con qué supervisión humana y con qué trazabilidad. La OCDE y la UE insisten en el concepto de human-in-the-loop como mínimo ético.
  • Rediseñar roles y procesos, no solo automatizarlos: la IA no sustituye puestos, transforma trabajos. Las empresas que están funcionando mejor están creando roles híbridos (human + AI supervisor).
  • Invertir en reskilling antes de recortar. Los datos del World Economic Forum muestran que las compañías que anticipan la reconversión interna reducen rotación, conflicto laboral y pérdida de conocimiento crítico.

También intentaremos tratar modelos reales de empresas que ya están reorganizando trabajo con IA sin quemar talento por el camino. Los que me leéis habitualmente sabéis que este es un tema que me preocupa.

A nivel gobiernos: regular sin asfixiar, proteger sin infantilizar

Aquí el margen de error es pequeño. O se llega a tiempo… o se legisla tarde y mal.

Acciones urgentes:

  • Marcos legales claros y actualizados para la IA agéntica: no solo para el uso, sino para la responsabilidad cuando un sistema autónomo toma decisiones que afectan a personas.
  • Protección efectiva frente a abusos (deepfakes, suplantación, manipulación): Francia ha abierto camino, pero la armonización internacional será clave. La UNESCO y el Consejo de Europa ya lo están advirtiendo.
  • Políticas activas de transición laboral: no basta con subsidios. Hace falta orientación, formación accesible y mecanismos para que los jóvenes entren al mercado laboral sin quedarse fuera desde el inicio.

Hablaremos de qué países están legislando con cabeza y cuáles solo están apagando fuegos mediáticos.

A nivel educativo: el elefante en la habitación

Si la educación no cambia, todo lo demás será parche. Vamos a tratar muy por encima este tema que nos aprieta por todas partes y con el que nos jugamos el futuro literalmente.

Acciones urgentes:

  • Revisar de raíz currículos y metodologías: memorizar lo que una IA hace mejor no tiene sentido. Enseñar a pensar, decidir y cuestionar sí. Y aquí reitero una de mis reivindicaciones habituales; la clave de todo está en las etapas infantil y primaria.
  • Integrar la IA como herramienta pedagógica con ética y límites, no como atajo ni como enemigo.
  • Crear espacios seguros para el error. El ser humano va a seguir aprendiendo a base de ensayo – prueba – error - retroalimentación.

Todo esto serán algunos de los bloques que intentaremos tratar en próximos artículos; qué debería enseñarse hoy la universidad, la FP, las empresas o todo a la vez, en plan ecosistema -que sería los sensato-. De manera que no formemos profesionales obsoletos antes de graduarse.

Para cerrar (por ahora)

2026 no es el año del apocalipsis laboral ni el del paraíso automatizado. Es el año en que la ambigüedad se acaba.

La IA ya no pide permiso. La pregunta es si nosotros vamos a asumir el liderazgo humano que la tecnología, por definición, no puede ejercer.

Como he indicado, intentaré desgranar estas acciones en próximos artículos. Porque pensar en la IA está bien. Pero debemos pasar a la acción: gobernarla, educarla y convivir con ella. Esto se ha vuelto ahora mismo urgente.

En resumen, amigos y amigas, esto ya no va solo de máquinas y software. Va de decisiones humanas.

Bibliografía y referencias citadas

Para quien quiera ir más allá del susto y leer con calma, algunas fuentes que respaldan y amplían lo anterior:

  • Stanford Institute for Human-Centered AI (2025). AI Index Report 2025. Datos sobre adopción de IA, impacto laboral, consumo energético y políticas públicas.
  • UNDP (2025). A Matter of Choice: People and Possibilities in the Age of AI. Informe sobre cómo la IA reconfigura empleo, desigualdad y participación ciudadana.
  • Second Talent (2025). AI Agents Statistics Relevant for 2026. Estadísticas sobre despliegue de IA agéntica en empresas, automatización de procesos y cambio organizativo.
  • OECD (2025). Governing with Artificial Intelligence. Análisis de uso de IA en el sector público, riesgos de deshumanización y marcos de gobernanza.
  • Wikipedia (2024). “AI slop”. Definición del término y usos en el ecosistema digital.
  • MOIN.AI (2025). “AI Slop: Causes and Effects of Mass AI Content.” Impacto del contenido masivo generado por IA en la calidad informativa y la confianza.
  • Scientific American (2025). “AI Slop—How Every Media Revolution Breeds Rubbish and Art.” Contexto histórico sobre “basura” informativa en revoluciones mediáticas.
  • Chambers Global Practice Guides (2025). Artificial Intelligence 2025 – France. Detalle de las reformas legales francesas sobre deepfakes y la Ley SREN.
  • Deleporte Wentz Avocat (2024). “Understanding Deepfakes: From Creativity to Misuse.” Explica artículos 226-8 y 226-8-1 del Código Penal francés sobre deepfakes sexuales.
  • Hogan Lovells (2024). “France prohibits non-consensual deep fakes.” Resumen de las sanciones a deepfakes no consentidos.
  • Facia.ai (2024). “France’s SREN Law.” Medidas contra deepfakes, especialmente sexuales, en el marco de la ley francesa de 2024.





 

No hay comentarios:

Art. 1/26. Año 2026: cuando la IA dejó de ayudarnos… y empezó a organizarse sola Ramón García Espeleta  7 de enero de 2026 Hola de nuevo a t...