domingo, 15 de marzo de 2026


  Art .10/26. El odio y la ira en la era de la inteligencia artificial

Hola a todas/os, hoy os escribo sobre algo que me parece fascinante y preocupante. Trataremos de algo muy antiguo; tanto como el ser humano. Las emociones. Y dentro de estas emociones hablaremos del odio y de la ira. Algo que me da la sensación de que se está instalando de manera bastante inconsciente entre nosotros. Inconsciente e inquietante.

¿Qué ocurre cuando un sentimiento humano tan potente entra en contacto con máquinas que amplifican información, emociones y conflictos a escala planetaria?

Vamos a pensarlo con calma, porque aquí hay materia de un tema escasamente tratado. Quizá porque no interesa a alguna parte interesada.

Una emoción antigua en un mundo tecnológicamente amplificado

Como os decía, el odio ha acompañado a la humanidad desde siempre. Civilizaciones enteras se han organizado alrededor de rivalidades, enemistades o identidades construidas contra “otros”. Lo diferente siempre ha costado integrarlo. Sin embargo, en el mundo contemporáneo ha aparecido un elemento nuevo: la tecnología digital y, como ya suponéis, la inteligencia artificial.

Lo interesante es que el odio no es una emoción simple. La Real Academia Española lo define como «antipatía y aversión hacia algo o hacia alguien cuyo mal se desea». No se trata de una emoción primaria como el miedo o la sorpresa, sino de una combinación compleja de experiencias, frustraciones, historia personal y construcción social. 

En la tradición filosófica y psicológica se ha diferenciado el odio de la ira. La ira surge de una injusticia concreta y busca reparación. El odio, en cambio, es más abstracto y generalizado: no se dirige solo contra una persona, sino contra grupos enteros. Por eso es mucho más peligroso. Estas reflexiones se citan en los análisis clásicos sobre las pasiones humanas de San Agustín y Brunetto Latini.

Durante siglos, el alcance de estas emociones estaba limitado por la escala humana: familias, ciudades, pueblos o naciones. Hoy el escenario es radicalmente distinto porque la tecnología ha amplificado los límites y ahora todos y todas vivimos en eso que se ha dado en llamar; aldea global.

El algoritmo como amplificador emocional

Las redes sociales han introducido un fenómeno que los investigadores llaman economía de la atención. En términos simples: los contenidos que generan más reacción emocional reciben más visibilidad.

Y aquí aparece un problema totalmente humano. Y que está siendo aprovechado de manera oscura por algunas organizaciones y personas.

Las emociones negativas —indignación, miedo, odio— generan más interacción que las neutrales o positivas. Un estudio del MIT publicado en Science mostró que los contenidos emocionales se propagan significativamente más rápido que los neutrales en redes sociales. Al final podéis comprobar estos datos en la bibliografía que os adjunto. 

Los algoritmos no “odian”, claro. Esto es evidente. No tienen emociones. Pero sí optimizan variables matemáticas como clics, tiempo de visualización o interacción.

Y eso puede producir un efecto curioso: las máquinas terminan amplificando lo que más activa emocionalmente a los humanos.

En otras palabras: si el odio genera más engagement, el sistema lo expande. Así de simple.

Y no lo hace por maldad. Las máquinas no tienen sentimientos. Lo hacen por estadística.

La inteligencia artificial y la nueva escala del conflicto

La inteligencia artificial añade una capa adicional a este fenómeno. Y es conveniente explicarlo.

Hoy ya existen sistemas capaces de:

· Generar texto, imágenes o vídeos automáticamente

· Segmentar audiencias con enorme precisión

· Amplificar mensajes en redes mediante bots o automatización

Esto significa que las emociones colectivas pueden ser diseñadas, manipuladas o amplificadas a escala industrial.

Un informe del Oxford Internet Institute ha documentado campañas de manipulación política en redes sociales en más de 80 países, muchas de ellas usando automatización o inteligencia artificial. No entraré al detalle, pero muchos y muchas tenéis ejemplos en  mente.

El resultado es un ecosistema donde el odio puede convertirse en un recurso político,  económico y las dos cosas a la vez. Y siempre relacionado con el poder.

En cierto modo, la tecnología ha transformado una emoción antigua en una infraestructura moderna. Y manipulado a alto nivel para conseguir oscuros intereses.

El riesgo de la deshumanización digital

Hay un fenómeno psicológico que se intensifica en entornos digitales: la despersonalización del adversario.

Cuando una persona se convierte en un avatar, un perfil o una etiqueta ideológica, resulta más fácil odiarla. La distancia psicológica elimina frenos naturales como la empatía.

Este efecto fue descrito por el psicólogo John Suler como “online disinhibition effect”, es decir, la tendencia de las personas a comportarse de manera más agresiva o extrema en internet.

La inteligencia artificial puede potenciar este fenómeno si se utiliza para:

· Crear ejércitos de perfiles falsos

· Generar mensajes polarizadores

· Manipular narrativas informativas

En ese escenario, el odio deja de ser solo una emoción humana y se convierte en una dinámica sistémica.

Pero la tecnología también puede ser parte de la solución

No nos quedemos solo en lo negativo. Aquí aparece una parte interesante y que también tenemos que abordar.

La misma inteligencia artificial que puede amplificar conflictos también puede ayudar a reducirlos.

Actualmente ya se utilizan sistemas de IA para:

· Detectar discurso de odio en plataformas digitales

· Identificar campañas coordinadas de desinformación

· Moderar contenidos violentos o radicalizadores

Por ejemplo, Meta y Google utilizan modelos de aprendizaje automático para detectar automáticamente discurso de odio o incitación a la violencia en millones de publicaciones cada día. Otra cosa son las indicaciones que reciban para “suavizar” ese control.

Y ese es el problema; que la tecnología nunca actúa sola.
Siempre depende de las decisiones humanas que la gobiernan.

El verdadero desafío: gobernar nuestras propias emociones

Al final, el problema no es la inteligencia artificial. El problema somos nosotros.

La tecnología amplifica lo que somos como especie: cooperación, creatividad, conocimiento… pero también miedo, tribalismo y odio.

Recordando de nuevo a San Agustín, este advertía hace siglos que la ira puede transformarse en odio si no se controla. En el siglo XXI podríamos reformular esa idea de forma casi tecnológica:

la emoción no gestionada correctamente se convierte en un sistema manipulado.

Y cuando una emoción humana se convierte en sistema tecnológico, su escala cambia radicalmente.

Una paradoja muy del siglo XXI

Nunca habíamos tenido herramientas tan poderosas para conectarnos. Nunca habíamos tenido acceso a tanta información.

Y, sin embargo, muchas sociedades experimentan niveles crecientes de polarización. Seguramente porque la lección es más filosófica que tecnológica.

La inteligencia artificial puede procesar datos, identificar patrones y generar conocimiento. Pero hay algo que sigue siendo profundamente humano: la capacidad de decidir qué emociones queremos cultivar como sociedad.

Porque una civilización no se define por las máquinas que construye, sino por las emociones que decide amplificar.

Y esto es algo que la masa suele olvidar, pero no los que controlan los algoritmos. A ellos les interesa conocer estos mecanismos.

 Fuentes y referencias

· Real Academia Española – Diccionario de la lengua española

· Vosoughi, S., Roy, D., Aral, S. (2018). The spread of true and false news online. Science

· Oxford Internet Institute (2023). Global Disinformation Order

· Suler, J. (2004). The Online Disinhibition Effect. CyberPsychology & Behavior

· La Civiltà Cattolica – análisis filosófico sobre el odio y la ira

Infografía creada con IA a partir de texto humano
Video creado con Notebook LLM a partir del texto anterior

Y si quieres escuchar un resumen en spotify, clica encima 




viernes, 6 de marzo de 2026


 

  Art 9/26. La IA y los resultados milagrosos: nos presentan cuentas… y a veces son cuentos.

O cómo algunos estudios convierten una estimación en una “evidencia”.

Hay una cosa que conviene decir ya, sin incienso ni atractivas presentaciones : la inteligencia artificial sí está dando resultados reales en empresas. Sí, funciona. A veces muy bien. Pero alrededor de esa verdad se ha montado también un pequeño parque temático de la exageración, donde una mejora puntual se convierte en “revolución”, una proyección se presenta como “dato” y una estimación con varios supuestos discutibles acaba desfilando por los diferentes comités como si hubiera bajado del monte Sinaí grabada en piedra.

Y ahí está el truco.

Porque no es lo mismo un dato observado que una estimación interna. Y no es lo mismo una estimación interna que una promesa de valor futuro. Ya sé que estoy diciendo obviedades, pero media industria vive de emborronar esa frontera con una soltura digna del mejor prestidigitador con un MBA.

Entrando en materia

Para entendernos: el Federal Reserve Bank of St. Louis publicó que los trabajadores que usaron IA generativa declararon haber ahorrado de media un 5,4% de su tiempo de trabajo semanal, unas 2,2 horas sobre una semana de 40 horas. Eso es interesante. Mucho. Pero significa exactamente eso: que en esa medición, esos usuarios dijeron haber ahorrado ese tiempo. No significa que “la IA vaya a mejorar la productividad de todas las empresas un 5,4%”. No significa que puedas recortar plantilla un 5,4%. No significa que tus márgenes vayan a engordar solos mientras tú te haces fotos con el trofeo de innovación que seguro te entregarán. Significa lo que significa. El resto ya es literatura de cualquier aeropuerto con un logo corporativo.

Pero no nos quedemos con esto solo. También encontramos casos reales, que sí enseñan cosas útiles. Klarna, por ejemplo, comunicó que su asistente de IA hacía el trabajo equivalente al de 700 agentes a tiempo completo, que resolvía gestiones en menos de 2 minutos frente a los 11 minutos anteriores, que operaba en 23 mercados y en más de 35 idiomas, y que estimaba una mejora de 40 millones de dólares en beneficio para 2024. La palabra importante aquí no es “40 millones”. La palabra importante es “estimaba”. Porque una estimación no es una cifra auditada de impacto contable limpio. Es una atribución probable basada en supuestos. Y ahí es donde muchas consultoras hacen su agosto en febrero: cogen una mejora real, la anualizan, la inflan con adopción teórica perfecta, le descuentan cero fricciones humanas y te la venden como certeza estadística con una tipografía elegante.

¿Qué es lo que pasa?

La jugada suele ser esta. Se detecta que una herramienta ahorra unos minutos por tarea. Después se asume (sin más)  que ese ahorro se produce siempre, en toda la plantilla, todos los días, con el mismo nivel de adopción, sin errores, sin verificaciones extra, sin retrabajos y sin costes de implantación. Luego alguien multiplica por número de empleados, por días laborables, por coste hora, por ilusión acumulada, y aparece una diapositiva que dice algo así como “impacto potencial anual: 12,7 millones”. Y ya está , se ha operado el milagro. O, dicho con más precisión, ya tenemos una hoja de Excel disfrazada de aparición mariana.

No estoy diciendo, ni mucho menos, que todas las consultoras se dediquen a esto. De hecho la mayoría de la que conozco son serías y te recalcan el “estimado”.  Sería demasiado sencillo y hasta injusto. Lo que digo es algo más interesante: algunas no mienten del todo, pero cuentan las cosas de forma que te empujan a creer más de lo que los datos realmente permiten concluir. Y eso, en la práctica, se parece muchísimo a vender humo, eso sí,  premium.

En empresa, la IA da resultados sobre todo donde hay tareas repetibles, procesos definidos y una métrica que no necesita traductor simultáneo. Atención al cliente, clasificación documental, soporte a empleados, detección de fraude, búsqueda interna, mantenimiento predictivo, ayuda al desarrollo de software. Ahí sí suele haber mejoras visibles porque puedes comparar antes y después sin invocar a ningún espíritu o hacer un acto de fe. Cuando una organización dice que ha bajado tiempos de gestión, acelerado consultas o reducida fricción operativa, y además te enseña cómo lo ha medido (esta es la clave),  eso ya merece respeto.

El mundo real 

El problema aparece cuando el mercado confunde tres niveles distintos: uso, impacto y valor económico atribuido. Que una empresa use IA no quiere decir que haya transformado su negocio. Que un equipo ahorre tiempo no significa automáticamente que ese tiempo se haya convertido en productividad neta. Y que alguien hable de “valor generado” no aclara por sí solo si habla de ingresos, ahorro de costes, capacidad liberada, riesgo evitado o una mezcla creativa de todo lo anterior con un poco de optimismo ejecutivo.

Lloyds Banking Group, por ejemplo, comunicó en enero de 2026 que la IA generativa había aportado alrededor de 50 millones de libras de valor en 2025 y que esperaba más de 100 millones adicionales en 2026. A ver, de primeras, está bastante bien formulado, porque distingue lo ya comunicado como valor de lo esperado para el año siguiente. Eso es más serio que la típica fanfarria del “la IA ya nos está revolucionando el negocio” sin explicar ni cómo, ni cuánto, ni con qué definición de “valor”. Pero incluso en un caso relativamente bien contado como este, un lector adulto debería hacerse la pregunta buena: ¿valor medido cómo exactamente? Porque “valor” es una palabra maravillosa: cabe casi todo dentro y queda estupenda en cualquier nota de prensa.

En finanzas, además, el asunto exige todavía menos poesía y más precisión. El Banco de Inglaterra y la FCA señalaron en su encuesta de 2024 que el 75% de las firmas de servicios financieros ya usaban IA y otro 10% planeaba usarla en los tres años siguientes. Eso sí es relevante. Eso ya no es moda, ni hacer un piloto simpático, ni crear un juguete para el laboratorio de innovación montándoles un futbolín (ojo, esto yo le visto en alguna empresa). Eso es adopción sectorial amplia. Pero justamente por eso hay que vigilar mejor el lenguaje. Cuando una tecnología se normaliza en banca, seguros o pagos, el problema deja de ser si “mola” y pasa a ser si está bien gobernada, bien medida y bien explicada.

Porque en finanzas una mala cifra no es una anécdota. Puede ser una bomba que estalle cuando menos se espera.

Y los riesgos no son teóricos. El caso de Air Canada fue un bofetón pedagógico. Su chatbot dio información incorrecta sobre una tarifa por duelo y la empresa fue considerada responsable por esa información. La lección es tan simple que casi ofende tener que repetirla: si el bot le habla al cliente en nombre de la empresa, la responsabilidad sigue siendo de la empresa. No puedes poner un loro digital a atender y luego fingir sorpresa cuando el loro te mete en un tribunal.

Algo parecido, pero más serio todavía, pasó con iTutorGroup. La EEOC cerró un acuerdo por 365.000 dólares tras alegar que el software de selección rechazaba automáticamente a mujeres de 55 o más años y a hombres de 60 o más. Esto desmonta otra majadería bastante extendida: la idea de que la IA, por sonar matemática, viene bendecida con objetividad divina. No. Y esto lo he repetido en muchos de mis artículos. Si alimentas el sistema con reglas torpes o sesgos históricos, lo que automatizas no es la neutralidad. Es la discriminación, pero más deprisa y con un imponente dashboard.

Mi opinión

Mi opinión es muy clara. La IA sí está generando valor real en empresas. Lo hace mejorando procesos, quitando trabajo mecánico, acelerando consultas, ayudando a empleados y afinando operaciones. Pero alrededor de esa realidad se ha creado una imagen paralela de estimaciones hinchadas, causalidades imaginarias y números presentados con una solemnidad que no merecen. En demasiados sitios, la presentación factura más que la evidencia.

Por eso, cuando alguien te venga con un titular glorioso del tipo “la IA generará X millones” o “equivale al trabajo de cientos de personas”, conviene hacer cinco preguntas que suelen arruinar bastante la fiesta. ¿Qué parte es dato observado? ¿Qué parte es atribución interna? ¿Qué parte es proyección? ¿Qué costes y errores se han descontado? ¿Y qué ha pasado de verdad en el día a día, no en la slide?

Si esas respuestas no aparecen, no estás ante evidencia robusta. Estás ante una narrativa de venta con perfume analítico.

Y aquí va la tesis de fondo, la mía, la que defiendo que se parece más a la verdad: la IA no necesita que la exageren. Ya es suficientemente útil cuando se aplica con cabeza. Lo que sobra no es tecnología. Lo que sobra es épica barata. Muchas empresas no necesitan más evangelistas del algoritmo. Necesitan menos numerología de consultoría y más métricas que se puedan mirar sin que te entre la risa.

La IA no hace milagros. Hace cosas útiles. Y eso, bien medido, ya sería bastante. El problema es que hay quien gana más dinero prometiendo prodigios que demostrando resultados.

Y ahí, amigos y amigas, empieza el negocio .

.

Bibliografía

Federal Reserve Bank of St. Louis. The Impact of Generative AI on Work and Productivity (2025). Base útil para la cifra de ahorro medio de tiempo entre usuarios de IA generativa.

OpenAI. Klarna case study. Fuente para los datos de atención al cliente, tiempos de resolución, cobertura idiomática y estimación de impacto económico comunicada por la empresa.

Klarna. AI assistant handles two thirds of customer service chats in its first month (comunicación corporativa). Refuerza los datos operativos del caso Klarna y ayuda a distinguir entre métricas observadas y estimaciones.

Lloyds Banking Group. AI-driven benefits (2026). Referencia para el valor comunicado por la entidad en 2025 y las expectativas para 2026. Útil para hablar de “valor atribuido” frente a “dato observado”.

Bank of England y FCA. Artificial Intelligence in UK Financial Services – 2024 survey. Soporte para la adopción amplia de IA en servicios financieros y para el bloque específico de banca/finanzas.

EEOC. iTutorGroup to pay $365,000 to settle EEOC discriminatory hiring suit. Fuente clave para el ejemplo de sesgo y discriminación algorítmica en selección.

American Bar Association. BC Tribunal Confirms Companies Remain Liable for Information Provided by AI Chatbot (análisis del caso Air Canada). Apoya la idea de responsabilidad empresarial por información errónea ofrecida por chatbots.

The Guardian. Air Canada chatbot lawsuit (2024). Fuente periodística complementaria para contextualizar el caso Air Canada y sus implicaciones prácticas.

Bank of America Newsroom. AI adoption by BofA’s global workforce improves productivity… y comunicaciones posteriores sobre Erica. Respaldo para uso interno de IA, productividad y escala de uso en banca.

JPMorgan Chase. 2024 Investor Day / annual materials. Soporte para usos de IA/ML en fraude, riesgo y operaciones, y para las cifras comunicadas de prevención de pérdidas ligadas a fraude/scams.

Microsoft Customer Stories (Lenovo, HARTING, YASNO). Casos útiles para productividad en soporte, reducción de tiempos de diseño y mejora operativa en atención y operaciones.

AWS Case Study. Natura &Co / IA generativa. Fuente para el caso de búsqueda inteligente y apoyo a la fuerza comercial distribuida.

Siemens. Materiales y casos sobre predictive maintenance y copilotos industriales. Respaldo para la parte de mantenimiento predictivo y operación industrial.

 



       Escuchar en spotify

domingo, 1 de marzo de 2026


 

Art 8 /26. Ciberseguridad en tiempos de IA. El castillo de las mil puertas y algunas de ellas sin cerradura.

En el artículo anterior tratábamos la salud mental como algo que hacía inteligentes a las empresas. En este vamos a hacer un cambio de tercio (si me permitís el símil taurino) pero sin abandonar la criticidad y siempre con el ser humano como factor clave.

Hoy os hablaré de algo que sabemos que pasa, pero que solo llena titulares cuando sucede un incidente y no bueno precisamente. Si amigos y amigas de este espacio compartido; hoy os hablare de la ciberseguridad. Porque esto es así; en las compañías pasa como con el ABS o los airbags en los coches: nadie los aplaude cuando funcionan, pero cuando fallan piensas en esa revisión o reparación que te saltaste o en ese piloto encendido al que no le diste importancia.

Porque en estos tiempos, el “enemigo” ya no entra con pasamontañas (bueno, no tan frecuentemente) : entra con tu contraseña reciclada, una API mal protegida, un proveedor despistado, o un agente de IA con demasiados permisos. Y de todo eso trataremos hoy. Espero que os sea útil o, al menos, despierte conciencias.

 

1) La gran empresa: ese castillo enorme con miles de puertas (y algunas sin cerradura)

En las compañías, sean grandes o medianas, el problema no es “tener un muro muy alto”. En todas ellas el punto de acceso lo encontramos en que hay:

  • Miles de identidades repartidas (empleados, terceros, partners, bots, etc... y todos con accesos con más o menos privilegios).
  • Nubes, SaaS, APIs, móviles, teletrabajo y IPs con accesos de dudosa seguridad.
  • Proveedores conectados a la empresa y cada uno con sus “cosas”.
  • Cosas viejas, pero “críticas” -según para quien- que nadie se atreve a tocar y ahí siguen.
  • Y departamentos que trabajan a ritmos distintos. Porque sí, aquí también encontramos silos.

Porque voy a comenzar por algo evidente pero que igual a algunos/as les parece un descubrimiento: el atacante no “hackea” tu empresa; hackea tu acceso. De hecho, en ataques a aplicaciones web, una de las empresas de referencia; Verizon, reporta que una parte enorme de las brechas dentro de ese patrón incluye el uso de credenciales robadas.
Y si hablamos de ransomware, también hay señales claras de que las credenciales expuestas/robadas están muy presentes en la cadena de ataque que no es que lo diga yo, sino que lo podéis leer en SpyCloud.

Algunos casos donde los “malos” encontraron una puerta son bien conocidos; Telefónica, Hospital Clinic de Barcelona, Santander, Iberia, SEPE… y paro aquí que tengo limitación de espacio.

En un primer resumen; el cibercrimen es cada vez menos “Misión Imposible” y más “si me dejas las llaves siempre debajo de la maceta me estás invitando a ver lo que hay en tu casa”.

 

2) Acceder desde fuera: tu “puerta principal” no puede ser solo una contraseña

Si se puede acceder a la empresa desde fuera (sea con VPN, apps internas, correo, RRHH, LMS… o lo que sea), tener solo la contraseña sin más es como cerrar con una cuerda y nudo facilón. Lo mínimo hoy es:

  • MFA sí o sí (doble factor) para cualquier acceso externo y para cuentas con privilegios.
    Porque si te roban la contraseña, el segundo factor es el “no tan rápido, campeón”.
  • Mejor aún si el MFA es anti-phishing de verdad, tipo llave física o sistemas FIDO2/WebAuthn.
    Porque el phishing ya no es un mail cutre: ahora parece escrito por tu jefe o el colega de toda confianza… y encima existe el “MFA fatigue”: te bombardean de avisos hasta que, por cansancio, alguien le da a “Aceptar”.

Y esto no es una opinión: NIST (los que saben y son referencia en seguridad) lo recomienda en sus guías de identidad digital: autenticación más robusta y resistente a engaños tipo “hombre en el medio” (MitM).
La referencia exacta os la dejo en la bibliografía al final del artículo.

Tambien os quiero hablar de la cero confianza práctica (Zero Trust, pero de verdad)

La cero confianza no es ningún producto. Es una idea simple:

  • No confíes por defecto en redes “internas”.
  • Verifica identidad, dispositivo y contexto (ubicación, riesgo, postura del endpoint).
  • Da mínimos permisos y revisalos continuamente.

 

3) “Que no entren por las cabeceras, IPs o cualquier sitio” dicen los técnicos. Vamos a ponerlo en castellano entendible

Aquí hablamos de perímetro moderno y sobre todo de aplicaciones y APIs, porque la guerra ya no va solo de que pongo un firewall y todos felices.

A) Cabeceras / tráfico web / reverse proxies

Medidas clave:

  • WAF (Web Application Firewall) bien afinado y testeado.
  • Protecciones anti-bots y rate limiting.
  • Validación estricta de inputs (y salida), y políticas de seguridad web (CSP, HSTS, etc.).
  • TLS fuerte en todo (cifrado en tránsito).

B) Bloquear acceso solo por  IPs: útil, pero no es una solución definitiva. Imagina que solo hay un camino para llegar al castillo, pero otro coge tu coche. Problema al canto.   

Filtrar por IP ayuda claro, pero, ojo, como lo que os comentaba del coche, no te resuelve todos los problemas:

  • Hay VPNs, proxies, móviles, redes dinámicas.
  • Un atacante puede entrar desde una IP “buena” si entra en una sesión o te roba las credenciales (ese es el coche, por si hay algún/a despistado/a).

Lo recomendable es usar la IP como señal, no como candado.

C) APIs: la puerta trasera que se ha convertido en una de las vulnerabilidades favoritas.

Hoy casi todo se conecta con APIs (que son como “pasillos” por donde las aplicaciones se hablan entre sí). El problema es que muchas empresas los tienen mal vigilados… y por ahí se cuela medio mundo.

OWASP (gente muy seria en seguridad) dice que lo que suele ocurrir para que ese agujero acabe en drama es:

  • Permisos mal puestos (te dejan ver cosas que no son tuyas),
  • Autenticación floja (o lo que es lo mismo; fácil de suplantar),
  • Demasiados datos devueltos (te enseñan más de la cuenta).

Os pongo un ejemplo típico (y peligroso) pero sencillo:
Imagina que existe una ruta tipo: /api/users/12345 y el sistema te devuelve datos de ese usuario sin comprobar que tú eres ese usuario (o que tienes permiso), un atacante solo tiene que cambiar el número:

  • /api/users/12346
  • /api/users/12347

Y empieza a cotillear (o robar) datos como quien va pasando páginas.

Es decir, si tu API “confía” en lo que le piden sin comprobar nada más, tu API es como si un camarero te entrega una cartera que se ha encontrado simplemente porque le has guiñado un ojo y ya da por hecho que eres su dueño.


4) Lo que más tumba empresas no es el “virus” o el “malware”: es el “mañana lo arreglamos”

Muchas brechas de seguridad no pasan porque el malware lo haya hecho un genio… pasan porque en la empresa pasan cosas de este estilo:

  • “Esto está mal configurado, pero funciona… no lo toques”
  • “Ese servidor lleva años sin actualizar, ya si eso lo miramos”
  • “Ese acceso era temporal… bueno, lo dejamos así”

ENISA (la agencia europea de ciberseguridad) lleva tiempo avisando de lo mismo: lo que más está pegando hoy es el ransomware, los ataques a través de proveedores, y que cada vez tenemos más sistemas conectados (más puertas, más ventanas y más rendijas). Lo podéis revisar en enisa.europa.eu.

Y aquí viene el golpe bajo: la cadena de suministro (proveedores) es el ninja silencioso. Si un proveedor pequeño tiene menos defensas y le entran… pueden usarlo como pasarela para llegar a ti. Por eso este tema está cada vez más en el foco de informes y prensa económica como un reciente artículo en el Financial Times.

Así que vamos a definir una regla dura pero realista. Tu seguridad es tan fuerte como:

  1. tu proveedor más flojo, y
  2. tu configuración más olvidada.

Así que sí, puedes tener un castillo precioso… pero si te dejas una puerta del garaje medio abierta, te la van a encontrar. Dalo por hecho.

 

5) Departamentos a los que les afecta todo esto. Que ya lo saben, pero repasémoslos.

  • IT / Infra / Cloud: configuración, parches, redes, identidades, logging.
  • Ciberseguridad (obvio): prevención, detección, respuesta, gobierno.
  • RRHH: altas/bajas, accesos, phishing (y el “usuario nuevo” es un target muy jugoso).
  • Legal & Compliance: NIS2, protección de datos, evidencias, contratos con proveedores.
  • Compras / Vendor Management: due diligence de terceros, SLAs de seguridad, auditorías.
  • Finanzas: fraude (BEC), pagos, suplantaciones.
  • Formación / L&D: cultura, simulaciones, hábitos, onboarding seguro (sí, ese usuario nuevo que hemos dicho antes).
  • Dirección: priorización y presupuesto (sin el apoyo de arriba, todo se vuelve imposible).

 

6) IA y agentes: el nuevo becario que trabaja a la velocidad de la luz… y puede liarla igual de rápido.

Este es uno de mis temas favoritos. Y aquí, la IA viene con, al menos, dos cambios de nivel:

-          Amenazas potenciadas por IA

  • Phishing más creíble y personalizado. Su perfección es nuestra ruina.
  • Automatización de reconocimiento y ataques.
  • Deepfakes de voz/video para fraude. Esto ya lo veis en otros ámbitos.

-          Riesgos nuevos por “agentes” (IA con herramientas)

Un agente conectado a sistemas (correo, drive, tickets, ERP, LMS) puede:

  • Ejecutar acciones no deseadas por prompt injection (“haz esto aunque no debas”).
  • Filtrar datos si no hay control de permisos/registro.
  • Convertirse en un “superusuario accidental” si le das llaves maestras.

Así que visto lo anterior os comparto una regla de oro: un agente de IA es un software con esteroides. Dale permisos como si fuera un humano… pero con auditoría extra y correa corta.

 

7) Checklist para que esto no sea solo un artículo bonito sino práctico

Os paso una lista de cosas a tener en cuenta que resume lo anterior y lo pone en orden:

A) Identidad y acceso (la madre del cordero)

  • MFA obligatorio en todo acceso externo y privilegiado.
  • Preferir MFA resistente a phishing (p. ej., FIDO2/WebAuthn) cuando sea posible.
  • SSO centralizado + políticas condicionales (riesgo, dispositivo, geolocalización).
  • “Least privilege”: permisos mínimos y temporales (PAM para admins o sea dar permisos solo cuando hace falta y con control).
  • Proceso rápido y auditable de altas/bajas (joiner/mover/leaver).

B) Endpoint y dispositivo

  • Equipos gestionados (MDM/EDR), cifrado de disco, parcheo automatizado.
  • Bloqueo de acceso a datos críticos desde dispositivos no gestionados.
  • Navegador y correo endurecidos (protección contra phishing y adjuntos maliciosos).

C) Red, perímetro y aplicaciones

  • WAF + rate limiting + anti-bots en frontales.
  • Segmentación (no todo en la misma “red feliz”).
  • DLP donde toque (datos sensibles).
  • SDLC seguro: revisión de código, SAST/DAST, gestión de dependencias.

D) APIs (donde se escurre medio mundo)

  • Autorización por objeto (BOLA acrónimo inglés de Broken Object Level Authorization ) revisada sistemáticamente.
  • API Gateway con autenticación fuerte, quotas y logging.
  • Inventario real de APIs (las “shadow APIs” existen).
  • Minimización de datos: devolver solo lo necesario.

E) Proveedores y cadena de suministro

  • Due diligence de seguridad y cláusulas contractuales (incidentes, auditorías, subprocesadores).
  • Evaluación periódica y SLA’s exigentes (no solo al firmar sino durante toda la vida del contrato).
  • Accesos de terceros: mínimos, caducables, monitorizados.

F) Detección y respuesta (porque nada es 100% impenetrable)

  • Logs centralizados (SIEM), alertas útiles (no 5.000 al día).
  • Playbooks de incidentes (ransomware, robo de credenciales, fuga de datos).
  • Copias 3-2-1, pruebas de restauración (la copia que no se prueba es sencillamente tener fe).
  • Simulacros: tabletop con negocio + técnico.

G) IA y agentes

  • Catálogo de usos permitidos (y prohibidos) de IA.
  • Datos sensibles: reglas claras (qué no se debería subir jamás).
  • Agentes con permisos mínimos, acciones “peligrosas” con aprobación humana.
  • Registro/auditoría de acciones del agente (quién, qué, cuándo, con qué prompt).
  • Evaluación de riesgos de prompt injection y exfiltración.

 

8) Apartado especial: Ciberseguridad en un LMS conectado al PC corporativo

Y termino con un tema más que interesante porque ocurre en muchas organizaciones; cuando hay un LMS “pegado” al entorno corporativo. Esto puede ser una bendición (control) y a la vez una tentación para algunos/as (si cae, escala a más).

Lo imprescindible en un LMS corporativo moderno

Identidad y acceso

  • SSO con el directorio corporativo (SAML/OIDC) y MFA heredado de la empresa.
  • SCIM (o automatización equivalente) para altas/bajas de usuarios y grupos: si alguien se va, se va también del LMS.
  • RBAC (roles) fino: alumno, manager, formador, admin… y nada de “admin por si acaso”.

Seguridad del endpoint

  • Si el LMS se usa desde equipos corporativos:
    • Integrar con políticas de dispositivo (MDM/EDR).
    • Evitar descargas locales de contenidos sensibles si no hace falta.
    • Proteger sesiones (timeout, refresh tokens bien gestionados).

Aplicación y datos

  • Cifrado en tránsito (TLS) y en reposo.
  • Separación de entornos (dev/test/prod) y datos anonimizados en no-prod.
  • Logs de actividad: accesos, cambios de rol, exportaciones de datos, integraciones.
  • Protección ante OWASP Top 10 (web) y OWASP API Top 10 si hay APIs.

Integraciones

  • LMS suele integrarse con HR, correo, Teams/Slack, BI, LXP, etc.
  • Cada integración es como poner una nueva puerta:
    • Tokens con alcance mínimo.
    • Rotación de credenciales.
    • Monitorización de llamadas API.
    • Principio de “si se rompe, que se rompa de forma segura”.

IA dentro del LMS

  • Si hay tutor/coach/chatbot IA:
    • No entrenar ni “reutilizar” conversaciones con datos sensibles sin control.
    • Filtros de contenido y prevención de fuga.
    • Reglas claras de qué puede hacer el agente (¿crear cursos? ¿matricular? ¿exportar?).

Os pongo un ejemplo para entenderlo mejor; Si un “agente” del LMS puede matricular gente y exportar listados, eso ya es dato personal + capacidad operativa. Mínimos permisos, aprobación humana para exportaciones masivas, y registro de cada acción.

Conclusión:

La ciberseguridad “top” en grandes compañías no es comprar la herramienta de moda. Es diseñar el acceso, blindar identidades, separar sistemas, vigilar lo importante, ensayar incidentes, y ahora además… ponerle correa y bozal a los agentes de IA.

Porque el futuro no va a tener menos puertas. Va a tener más, y como digo en el encabezado, algunas no tienen cerradura o han dejado la llave debajo de una maceta.

 

Fuentes y bibliografia

  • Verizon, Data Breach Investigations Report (DBIR) 2025 (hallazgos sobre patrones de ataque y credenciales). (Verizon)
  • NIST, SP 800-63B-4 Digital Identity Guidelines (2025) (autenticación, canales protegidos y prácticas recomendadas). (NIST Publications)
  • ENISA, Threat Landscape 2025 (panorama de amenazas en Europa, supply chain, OT, etc.). (enisa.europa.eu)
  • OWASP, API Security Top 10 (2023) y OWASP Top 10 (riesgos clave en APIs y apps web). (owasp.org)
  • Financial Times (cobertura sobre aumento de ataques vía terceros / supply chain). (Financial Times)
  • Comunicado oficial Banco Santander sobre acceso no autorizado (14 mayo 2024). (Santander)
  • Reuters: Telefónica investiga posible ciberataque por datos filtrados (3 jun 2025). (Reuters)
  • INCIBE-CERT: ciberataque ransomware al Hospital Clínic + evolución del incidente. (INCIBE)
  • Associated Press: impacto operativo del ataque al Hospital Clínic (marzo 2023). (AP News)
  • El País: conclusiones sobre medidas mínimas y contexto del ataque al Clínic (noviembre 2024). (El País)
  • INCIBE-CERT: SEPE comienza recuperación tras ciberataque (marzo 2021). (INCIBE)
  • SecurityWeek: Iberia notifica brecha por compromiso de proveedor (noviembre 2025). (SecurityWeek)
  • CISA: lecciones aprendidas del ataque a Colonial Pipeline. (cisa.gov)
  • SEC (8-K): estimación de impacto económico de MGM por incidente (octubre 2023). (SEC)
  • FTC: caso Equifax y acuerdo global (hasta 700M$). (Federal Trade Commission)
  • Forbes / LA Times: pérdidas estimadas Maersk por NotPetya (200–300M$). (Forbes)
  • Bloomberg: pérdidas reclamadas por Merck (~1.3B$) por NotPetya. (Bloomberg.com)
  • OWASP: riesgos principales en seguridad de APIs. (cisa.gov)

 


 


Audio podcast en spotify

  Art .10/26.  El odio y la ira en la era de la inteligencia artificial Hola a todas/os, hoy os escribo sobre algo que me parece fascinante ...