domingo, 15 de marzo de 2026


  Art .10/26. El odio y la ira en la era de la inteligencia artificial

Hola a todas/os, hoy os escribo sobre algo que me parece fascinante y preocupante. Trataremos de algo muy antiguo; tanto como el ser humano. Las emociones. Y dentro de estas emociones hablaremos del odio y de la ira. Algo que me da la sensación de que se está instalando de manera bastante inconsciente entre nosotros. Inconsciente e inquietante.

¿Qué ocurre cuando un sentimiento humano tan potente entra en contacto con máquinas que amplifican información, emociones y conflictos a escala planetaria?

Vamos a pensarlo con calma, porque aquí hay materia de un tema escasamente tratado. Quizá porque no interesa a alguna parte interesada.

Una emoción antigua en un mundo tecnológicamente amplificado

Como os decía, el odio ha acompañado a la humanidad desde siempre. Civilizaciones enteras se han organizado alrededor de rivalidades, enemistades o identidades construidas contra “otros”. Lo diferente siempre ha costado integrarlo. Sin embargo, en el mundo contemporáneo ha aparecido un elemento nuevo: la tecnología digital y, como ya suponéis, la inteligencia artificial.

Lo interesante es que el odio no es una emoción simple. La Real Academia Española lo define como «antipatía y aversión hacia algo o hacia alguien cuyo mal se desea». No se trata de una emoción primaria como el miedo o la sorpresa, sino de una combinación compleja de experiencias, frustraciones, historia personal y construcción social. 

En la tradición filosófica y psicológica se ha diferenciado el odio de la ira. La ira surge de una injusticia concreta y busca reparación. El odio, en cambio, es más abstracto y generalizado: no se dirige solo contra una persona, sino contra grupos enteros. Por eso es mucho más peligroso. Estas reflexiones se citan en los análisis clásicos sobre las pasiones humanas de San Agustín y Brunetto Latini.

Durante siglos, el alcance de estas emociones estaba limitado por la escala humana: familias, ciudades, pueblos o naciones. Hoy el escenario es radicalmente distinto porque la tecnología ha amplificado los límites y ahora todos y todas vivimos en eso que se ha dado en llamar; aldea global.

El algoritmo como amplificador emocional

Las redes sociales han introducido un fenómeno que los investigadores llaman economía de la atención. En términos simples: los contenidos que generan más reacción emocional reciben más visibilidad.

Y aquí aparece un problema totalmente humano. Y que está siendo aprovechado de manera oscura por algunas organizaciones y personas.

Las emociones negativas —indignación, miedo, odio— generan más interacción que las neutrales o positivas. Un estudio del MIT publicado en Science mostró que los contenidos emocionales se propagan significativamente más rápido que los neutrales en redes sociales. Al final podéis comprobar estos datos en la bibliografía que os adjunto. 

Los algoritmos no “odian”, claro. Esto es evidente. No tienen emociones. Pero sí optimizan variables matemáticas como clics, tiempo de visualización o interacción.

Y eso puede producir un efecto curioso: las máquinas terminan amplificando lo que más activa emocionalmente a los humanos.

En otras palabras: si el odio genera más engagement, el sistema lo expande. Así de simple.

Y no lo hace por maldad. Las máquinas no tienen sentimientos. Lo hacen por estadística.

La inteligencia artificial y la nueva escala del conflicto

La inteligencia artificial añade una capa adicional a este fenómeno. Y es conveniente explicarlo.

Hoy ya existen sistemas capaces de:

· Generar texto, imágenes o vídeos automáticamente

· Segmentar audiencias con enorme precisión

· Amplificar mensajes en redes mediante bots o automatización

Esto significa que las emociones colectivas pueden ser diseñadas, manipuladas o amplificadas a escala industrial.

Un informe del Oxford Internet Institute ha documentado campañas de manipulación política en redes sociales en más de 80 países, muchas de ellas usando automatización o inteligencia artificial. No entraré al detalle, pero muchos y muchas tenéis ejemplos en  mente.

El resultado es un ecosistema donde el odio puede convertirse en un recurso político,  económico y las dos cosas a la vez. Y siempre relacionado con el poder.

En cierto modo, la tecnología ha transformado una emoción antigua en una infraestructura moderna. Y manipulado a alto nivel para conseguir oscuros intereses.

El riesgo de la deshumanización digital

Hay un fenómeno psicológico que se intensifica en entornos digitales: la despersonalización del adversario.

Cuando una persona se convierte en un avatar, un perfil o una etiqueta ideológica, resulta más fácil odiarla. La distancia psicológica elimina frenos naturales como la empatía.

Este efecto fue descrito por el psicólogo John Suler como “online disinhibition effect”, es decir, la tendencia de las personas a comportarse de manera más agresiva o extrema en internet.

La inteligencia artificial puede potenciar este fenómeno si se utiliza para:

· Crear ejércitos de perfiles falsos

· Generar mensajes polarizadores

· Manipular narrativas informativas

En ese escenario, el odio deja de ser solo una emoción humana y se convierte en una dinámica sistémica.

Pero la tecnología también puede ser parte de la solución

No nos quedemos solo en lo negativo. Aquí aparece una parte interesante y que también tenemos que abordar.

La misma inteligencia artificial que puede amplificar conflictos también puede ayudar a reducirlos.

Actualmente ya se utilizan sistemas de IA para:

· Detectar discurso de odio en plataformas digitales

· Identificar campañas coordinadas de desinformación

· Moderar contenidos violentos o radicalizadores

Por ejemplo, Meta y Google utilizan modelos de aprendizaje automático para detectar automáticamente discurso de odio o incitación a la violencia en millones de publicaciones cada día. Otra cosa son las indicaciones que reciban para “suavizar” ese control.

Y ese es el problema; que la tecnología nunca actúa sola.
Siempre depende de las decisiones humanas que la gobiernan.

El verdadero desafío: gobernar nuestras propias emociones

Al final, el problema no es la inteligencia artificial. El problema somos nosotros.

La tecnología amplifica lo que somos como especie: cooperación, creatividad, conocimiento… pero también miedo, tribalismo y odio.

Recordando de nuevo a San Agustín, este advertía hace siglos que la ira puede transformarse en odio si no se controla. En el siglo XXI podríamos reformular esa idea de forma casi tecnológica:

la emoción no gestionada correctamente se convierte en un sistema manipulado.

Y cuando una emoción humana se convierte en sistema tecnológico, su escala cambia radicalmente.

Una paradoja muy del siglo XXI

Nunca habíamos tenido herramientas tan poderosas para conectarnos. Nunca habíamos tenido acceso a tanta información.

Y, sin embargo, muchas sociedades experimentan niveles crecientes de polarización. Seguramente porque la lección es más filosófica que tecnológica.

La inteligencia artificial puede procesar datos, identificar patrones y generar conocimiento. Pero hay algo que sigue siendo profundamente humano: la capacidad de decidir qué emociones queremos cultivar como sociedad.

Porque una civilización no se define por las máquinas que construye, sino por las emociones que decide amplificar.

Y esto es algo que la masa suele olvidar, pero no los que controlan los algoritmos. A ellos les interesa conocer estos mecanismos.

 Fuentes y referencias

· Real Academia Española – Diccionario de la lengua española

· Vosoughi, S., Roy, D., Aral, S. (2018). The spread of true and false news online. Science

· Oxford Internet Institute (2023). Global Disinformation Order

· Suler, J. (2004). The Online Disinhibition Effect. CyberPsychology & Behavior

· La Civiltà Cattolica – análisis filosófico sobre el odio y la ira

Infografía creada con IA a partir de texto humano
Video creado con Notebook LLM a partir del texto anterior

Y si quieres escuchar un resumen en spotify, clica encima 




No hay comentarios:

  Art .10/26.  El odio y la ira en la era de la inteligencia artificial Hola a todas/os, hoy os escribo sobre algo que me parece fascinante ...