sábado, 24 de enero de 2026


 

Art. 3/26. Reorganizar el trabajo en la época de la IA agéntica

Vamos a dejarlo claro desde el principio:
2026 no es el año en que la IA “ayuda más”. Es el año en que empieza a organizarse sola.
Y eso tiene una consecuencia incómoda: el trabajo humano no puede seguir diseñado como si la IA no existiera.

Mientras seguimos discutiendo en cafés y tertulias si la IA “nos va a quitar el empleo”, en muchas empresas los procesos ya se están reescribiendo.
El problema es que, a menudo, se reescriben a favor del sistema… y no de las personas.

Este artículo va de eso.
De qué pasa cuando los agentes de IA dejan de ser un plugin simpático y empiezan a decidir, ejecutar y redistribuir tareas.
Y de cómo reorganizar el trabajo humano para no acabar siendo figurantes en nuestro propio organigrama.

Del “uso herramientas” al “respondo de sistemas”

Durante años fuimos usuarios de software.
Aprendíamos pantallas, rellenábamos campos y obedecíamos flujos.

Con la IA agéntica ese papel se queda pequeño, casi ridículo.

Empiezan a emerger tres responsabilidades humanas claras, aunque muchas empresas aún no quieran ponerles nombre:

  • Quien define qué puede y qué no puede hacer el sistema: objetivos, límites, umbrales de riesgo y criterios de calidad. No programa, pero manda.

  • Quien orquesta el trabajo mixto persona + agente: decide qué se automatiza, qué se supervisa y dónde el juicio humano es irrenunciable.

  • Quien da la cara cuando algo sale mal: ante clientes, empleados o reguladores. Legal y éticamente. Spoiler: ningún modelo firma multas.

La pregunta incómoda es simple:
¿estos roles están diseñados… o se están improvisando con gente “que sabe un poco de IA”?

Los nuevos roles reales 

Cuando la IA agéntica se usa en serio, aparecen patrones claros de trabajo. No son modas, son cambios estructurales.

1. Diseñadores de decisiones
Ya no dibujan diagramas.
Definen qué puede decidir la IA, con qué datos y bajo qué condiciones.
Mezclan negocio, regulación y límites técnicos. No necesitan ser ingenieros, pero sí responsables.

2. Supervisores híbridos (humanos + agentes)
Gestionan carteras de casos llevados por IA.
Revisan excepciones, ajustan reglas, recalibran criterios éticos y de calidad.
Hacen menos “tarea” y más vigilancia inteligente del sistema.

3. Traductores sociotécnicos
Conectan datos, negocio y personas afectadas.
Explican decisiones automatizadas, impactos y riesgos.
Son clave para cumplir el famoso human in the loop que piden la OCDE y la UE.

Si tu organigrama sigue separando “los de IA” y “los demás”, no estás atrasado: estás creando fricciones invisibles.

Cómo cambia de verdad el día a día

En una oficina donde la IA ya abre expedientes, prioriza trabajo y propone decisiones, el trabajo humano muta rápido:

  • Menos primeras versiones, más criterio. La máquina redacta; la persona decide si eso tiene sentido.

  • Menos buscar información, más interpretarla. El valor está en el contexto, no en el dato.

  • Menos repetición, más gestión de conflictos y matices. Donde hay derechos, expectativas o límites legales, siempre aparece un humano.

Quien no asuma este giro acaba como acompañante pasivo de sistemas que deciden por él… mientras cree que “solo usa herramientas”.

Los errores que seguimos repitiendo 

La historia se repite, como en la primera digitalización:

  • Automatizar sin rediseñar el puesto. Quitamos tareas, dejamos el cargo igual y generamos caos residual.

  • Infravalorar la supervisión. “Esto ya va solo” es una fantasía cara. Los primeros meses son intensos.

  • Externalizar la culpa. “Lo decidió el sistema” no sirve ni ante clientes ni ante reguladores. Ya hay casos reales.

La versión adulta de todo esto es asumir que cada agente desplegado exige rediseñar funciones, responsabilidades y comunicación.

Tres movimientos urgentes para este 2026

Nada de filosofía abstracta. Tres pasos accionables ya:

1. Mapear tareas, no puestos
Descomponer el trabajo real.
Decidir qué se automatiza, qué se supervisa y qué debe seguir siendo humano por riesgo o por principios.

2. Firmar contratos persona–agente
Dejar claro qué puede hacer el sistema, qué debe escalar y cómo se documentan decisiones críticas.
Y que quien trabaja con él lo entienda. Esto no es un anexo técnico.

3. Crear carreras híbridas de verdad
Reconocer roles como supervisor de IA o diseñador de decisiones.
Unir formación en IA con habilidades humanas: ética, comunicación, liderazgo.
Exactamente lo que recomiendan Stanford HAI, OECD y los grandes informes de futuro del trabajo.

No se trata de conservar puestos antiguos, sino de elevar el valor humano que sigue teniendo sentido.

Menos miedo, más diseño consciente

Seguimos atrapados en el debate infantil de si la IA crea o destruye empleo.
Mientras tanto, las empresas ya están decidiendo —en silencio— qué trabajo humano se queda, cuál cambia y cuál se delega a sistemas autónomos.

La pregunta adulta de 2026 no es cuántos puestos sobreviven.
Es qué trabajo queremos que sigan haciendo las personas cuando la IA ya no pide permiso.

Eso no lo decidirá ningún algoritmo.
Lo decidirán las organizaciones que sepan reorganizar su trabajo con intención… y no solo con prisas.

Fuentes y referencias (para los que piden datos):
McKinsey (2025), The State of AI.
Google Cloud (2025), The ROI of AI Agents.
IBM / Omdia (2025), AI Agents: Expectations vs Reality.
BCG (2025), AI at Work.
Gassmann (2025), The Non Human Enterprise.
Stanford HAI (2025), AI Index.
OECD (2024–2025), AI Principles & Governance.

Infografía:



Vídeo:



No hay comentarios:

  Art .10/26.  El odio y la ira en la era de la inteligencia artificial Hola a todas/os, hoy os escribo sobre algo que me parece fascinante ...