sábado, 28 de marzo de 2026


                Art 12/26. Cuando la IA necesita más FilosofIA


      Nos prometieron una revolución inteligente. Y vaya si ha llegado. La IA escribe, dibuja, decide, recomienda, resume y hasta parece pensar con más orden que muchos humanos con despacho, presupuesto y tarjeta de visita. El problema es que, mientras medio mundo sigue aplaudiendo sus prodigios como si estuviéramos en una feria tecnológica con barra libre, empieza a asomar una verdad bastante menos cómoda: quizá no necesitábamos solo máquinas más potentes. Quizá necesitábamos, antes que eso, una sociedad bastante menos ingenua. Porque cuando una tecnología empieza a rozar la verdad, la reputación, la intimidad, la infancia o el poder, ya no basta con que funcione. Tiene que saber convivir con límites. Y justo ahí es donde descubrimos que la IA, por sí sola, no se basta. Que necesita algo mucho más antiguo, mucho más incómodo y mucho menos vendible: FilosofIA.


Durante meses hemos asistido a un espectáculo bastante previsible. La inteligencia artificial escribe, dibuja, resume, traduce, programa, corrige, ordena, recomienda y encima lo hace a una velocidad que deja a más de uno con cara de haber descubierto fuego por primera vez.

Todo muy impresionante. Todo muy vendible. Todo muy de titular con música épica de fondo.

Pero después de hablar en artículos anteriores del odio, de la ira y del daño real que ciertas derivas tecnológicas ya están empezando a facilitar, toca decir algo menos sexy, menos marketiniano y bastante más importante:

a la IA le empieza a hacer falta más FilosofIA.

Sí. Filosofía.

Esa vieja conocida que muchos mandaron al trastero porque no programaba, no escalaba, no levantaba rondas y no parecía útil en un PowerPoint lleno de palabros en inglés. Pues resulta que ahora, justo ahora, cuando las máquinas parecen hacer cada vez más cosas, lo que más necesitamos no es solo más potencia.

Necesitamos más criterio.

Más sentido.

Más límites.

Más pensamiento incómodo.

Porque lo que está en juego ya no es únicamente si una IA responde mejor, genera imágenes más espectaculares o automatiza más tareas que la competencia. Eso está bien para una demo, para una keynote o para ese cuñado tecnológico que se viene arriba en las cenas.

La pregunta seria ya es otra:

¿qué estamos normalizando mientras aplaudimos?

Y esa ya no es una cuestión técnica.

Es una cuestión filosófica.

La inteligencia artificial sabe hacer cosas. Otra cosa es que sepa cuándo no debería

Este es uno de los grandes autoengaños de nuestra época.

Hemos confundido inteligencia con capacidad de cálculo, velocidad con comprensión y resultados con juicio. Y no, no es lo mismo. Ni de lejos.

Una IA puede producir textos excelentes sin entender una sola palabra de lo que significa la verdad. Puede generar una imagen emocionalmente devastadora sin comprender qué es la dignidad. Puede recomendar decisiones sin saber lo que pesa una injusticia. Puede sonar convincente sin tener ni idea de lo que dice. Y puede acertar muchas veces sin haber entendido jamás una sola consecuencia humana de sus actos.

Es decir: puede parecer brillante y seguir siendo ciega en lo esencial.

Y eso, sinceramente, debería preocuparnos bastante más de lo que preocupa.

Porque si una tecnología entra en terrenos donde toca reputación, infancia, intimidad, convivencia, salud mental, derechos, educación, trabajo o verdad pública, no basta con que funcione. Ni siquiera basta con que funcione muy bien.

Tiene que convivir con límites.

Y ahí es donde empieza la parte en la que ya no basta con ingenieros, producto y negocio celebrándose mutuamente en círculos.

Ahí empieza la parte en la que hacen falta ética, filosofía, derecho y una idea mínimamente decente de ser humano.

No todo lo que se puede hacer merece hacerse

Sé que esto suena poco moderno. Casi antiguo. Pero alguien tendrá que decirlo sin complejo alguno: no toda posibilidad técnica merece convertirse en práctica social.

Podemos crear deepfakes.
Podemos clonar voces.
Podemos automatizar propaganda.
Podemos fabricar intimidad falsa.
Podemos sexualizar digitalmente a personas reales.
Podemos erosionar derechos de autor a escala industrial.
Podemos construir sistemas que optimizan atención a costa de la salud mental o de la polarización.

Podemos, sí.

La cuestión no es si podemos.

La cuestión es si estamos tan deslumbrados por la capacidad que hemos dejado de preguntarnos por el coste moral, social y político de usarla.

Y aquí está una de las trampas más peligrosas del momento: hay demasiada gente confundiendo innovación con ausencia de freno. Como si poner límites fuera de cobardes, de viejos o de gente que “no entiende el futuro”.

Pues no.

En tecnologías con capacidad de amplificar daño, poner límites no es ir contra el futuro.

Es intentar que el futuro no se convierta en una barbaridad perfectamente optimizada.

La gran ironía: máquinas cada vez más listas, sociedades a veces cada vez más torpes

Esta parte me parece fascinante y bastante inquietante.

Nunca habíamos tenido herramientas tan potentes para acceder a conocimiento, automatizar tareas, mejorar procesos o generar contenido.

Y, sin embargo, nunca había sido tan visible lo mal que se nos da distinguir entre información y criterio, entre persuasión y manipulación, entre eficiencia y legitimidad.

La IA no está creando solo una revolución tecnológica.

Está provocando un examen moral.

Nos está obligando a preguntarnos qué tipo de sociedad somos cuando disponemos de herramientas descomunales y aun así seguimos tentados de usarlas para degradar, manipular, polarizar, copiar, suplantar o convertir la verdad en algo negociable.

Porque aquí está el núcleo del asunto: la IA no trae ética de serie.

No lleva conciencia instalada.

No incorpora prudencia por defecto.

No incluye compasión en la versión premium.

Lo único que hace, en buena medida, es amplificar capacidades. Y cuando una capacidad humana no va acompañada de criterio, el resultado puede ser espectacular. Sí. Pero espectacularmente peligroso.

La IA no inventa nuestros peores impulsos. Los escala

Este punto me parece clave para cerrar la trilogía.

En los textos anteriores ya aparecía una idea de fondo: el problema no son solo las máquinas. El problema es lo bien que pueden amplificar lo peor de nosotros cuando les damos el contexto adecuado y quitamos de en medio cualquier freno incómodo.

La IA no inventó el odio.
No inventó la ira.
No inventó la mentira.
No inventó la manipulación.
No inventó el narcisismo, la codicia ni la deshumanización.

Lo que sí puede hacer es darles volumen, velocidad, personalización y escala.

Y ahí cambia todo.

Porque una cosa es que un ser humano haga daño con sus limitaciones naturales. Y otra muy distinta es que disponga de sistemas capaces de multiplicar ese daño a velocidades industriales, con apariencia de neutralidad y bajo el envoltorio glamouroso de la innovación.

Por eso, cuando se habla de IA como si fuera simplemente una herramienta neutra, conviene hacer una pequeña pausa. Las herramientas nunca son del todo neutras cuando alteran incentivos, rebajan barreras, redistribuyen poder y hacen rentable lo que antes era más costoso o menos creíble.

Pensar lo contrario es infantil.

O interesadamente infantil.

FilosofIA no es postureo humanista

Aclaremos esto, porque ya nos conocemos y el mercado tiene mucha habilidad para convertir cualquier idea seria en merchandising de baja calidad.

Hablar de FilosofIA no es ponerse estupendo. No es citar a Aristóteles en una slide bonita. No es decorar una estrategia de IA con una frase de Séneca para que parezca que aquí se reflexiona mucho.

No.

Hablar de FilosofIA es hacer preguntas incómodas antes de desplegar una tecnología, no después del escándalo.

Es preguntarse:

  • qué modelo uso y por qué,
  • qué riesgos acepto y cuáles no,
  • qué derechos pueden verse afectados,
  • qué controles exijo al proveedor,
  • qué usos prohíbo internamente,
  • qué errores no pienso tolerar aunque mejoren la productividad,
  • qué parte de lo humano no quiero externalizar a una máquina por muy bien que funcione.

Eso sí sería filosofía aplicada.

Lo otro suele ser maquillaje corporativo con fondo azul y palabras como trustworthy, human-centric y responsible escritas en tipografía elegante mientras por detrás nadie ha cambiado prácticamente nada.

La batalla importante no será por quién tiene la IA más potente

Nos están entreteniendo bastante con la carrera de capacidades. Qué modelo razona mejor. Qué otro genera mejores vídeos. Cuál responde más rápido. Cuál automatiza más. Cuál impresiona más en benchmarks que casi nadie fuera del sector sabría explicar del todo.

Y mientras tanto, la discusión verdaderamente importante avanza más despacio de lo que debería:

qué tipo de límites necesita una sociedad para no entregarle demasiadas cosas a sistemas que no entienden el bien, el mal, la justicia, la verdad ni la dignidad.

Esa es la conversación adulta.

La otra, siendo sinceros, se parece demasiado a una feria de vanidades con servidores de fondo.

Porque el modelo más espectacular no será necesariamente el más valioso.

Cada vez tengo más claro que en los próximos años no ganará solo quien tenga la IA más brillante, sino quien sea capaz de demostrar que sabe convivir con límites, con trazabilidad, con escrutinio, con derechos y con algo muy poco glamouroso pero completamente esencial: responsabilidad.

Nos hace falta menos fascinación y más madurez

Creo que ese es el resumen profundo.

Hemos hablado mucho de lo que la IA puede hacer.

Ha llegado el momento de hablar con la misma intensidad de lo que no debería facilitar, de lo que no deberíamos tolerar y de las renuncias que una sociedad decente tendría que estar dispuesta a defender, aunque eso ralentice un poco la fiesta.

Porque el problema nunca fue que la tecnología avanzara.

El problema empieza cuando el juicio moral retrocede.

Y quizá ahí está la madre del cordero: hemos construido herramientas cada vez más potentes en una cultura que a veces premia más la velocidad que la sabiduría, más la escala que la responsabilidad y más el impacto que el sentido.

Mala combinación.

Muy mala.

Fuentes:

  • Real Academia Española – Diccionario de la lengua española
  • Vosoughi, S., Roy, D., Aral, S. (2018). The spread of true and false news online. Science
  • Oxford Internet Institute – Global Disinformation Order
  • Suler, J. (2004). The Online Disinhibition Effect. CyberPsychology & Behavior
  • Reglamento europeo de Inteligencia Artificial (AI Act), especialmente artículos sobre transparencia, gobernanza y obligaciones para modelos de propósito general
  • AESIA – materiales explicativos sobre el AI Act
  • UNESCO – Recommendation on the Ethics of Artificial Intelligence
  • OECD – principios sobre inteligencia artificial confiable
  • Stanford Encyclopedia of Philosophy – entradas sobre ética, responsabilidad moral y filosofía de la tecnología


Infografia creada con IA a partir de texto humano

                        Video creado con Notebook LLM a partir de texto humano


      Art 11/26. Daño y riesgo en el avance la IA

No podemos quedarnos en una carrera de chatbots; debemos abordar una discusión seria sobre el riesgo de este nuevo poder.
Esta semana la inteligencia artificial ha vuelto a recordarnos con sus consecuencias que el problema no es solo lo que sabe, sino lo que puede llegar a hacer

En el anterior artículo tratamos sobre el odio y la ira. Y su relación con la Inteligencia artificial. Esta semana no nos iremos muy lejos de todo ello. Sé que no es popular, pero frente al montón de artículos que muestran la inteligencia artificial como un escaparate de prodigios sinfín, donde escribe, dibuja, resume, programa, traduce, sugiere, corrige y encima lo hace con una velocidad de vértigo nos encontramos con otras noticias menos atractivas en las que la IA se quita el disfraz de herramienta milagrosa y enseña los dientes.

Esta semana nos hemos encontrado con una de esas noticias. Y es lo que vamos a diseccionar.

Porque el asunto más incómodo de estos días no ha sido que un modelo escriba mejor, pinte más fino, haga un video en segundos o razone con más aplomo que un cuñado en nochevieja. Lo más polémico ha sido bastante más feo: el presunto uso de herramientas ligadas a Grok, de xAI, para generar imágenes sexuales explícitas de adolescentes reales, incluidas menores. La noticia ha escalado por una demanda presentada por varias jóvenes de Tennessee, que sostienen que la tecnología fue usada para convertir fotos normales en material sexualizado no consentido. AP, Reuters, The Guardian y The Washington Post han tratado el caso estos últimos días, y el debate ha dejado de ser técnico para convertirse en algo mucho más serio: responsabilidad, daño real, protección de menores y límites de diseño.

Y aquí conviene detenerse un momento.

Porque cuando hablamos de IA, muchas veces seguimos discutiendo como si estuviéramos en un concurso de potencia: quién corre más, quién redacta mejor, quién genera la imagen más espectacular, quién resume en menos tiempo un PDF infumable. Todo eso importa, sí. Pero ya no basta. El debate serio ya no está solo en la capacidad. Está en el riesgo. Y más concretamente: en el daño que puede producir.

Por eso, para tratar este tema me basaré en lo que parecía que nos iba a complicar la vida, pero al final resulta que es el freno que todos los modelos deberían observar. Os hablo, ya imagináis, de lo que se indica en AI Act (Ley de Inteligencia Artificial de la UE). El primer marco jurídico integral sobre inteligencia artificial en el mundo. No nos pondremos a recitar sus artículos, sino que simplificaremos su espíritu; que viene a ser como si cuando se va terminando la  presentación de lo último, se encienden las luces y alguien pregunta: “Muy bien, máquina prodigiosa, pero ahora explícame qué haces cuando te usan para humillar, manipular, difamar, sexualizar o sustituir la realidad”.

Ese es el punto. Hablamos de máquinas que no sienten. Al menos aún.

La IA ha dejado de ser solo una historia de eficiencia. Ahora también es una historia de gobernanza, de trazabilidad, de límites y de responsabilidad. Y la regulación europea, nos guste más o menos, va exactamente por ahí. El AI Act no nace para fastidiar la innovación, sino para poner orden donde el mercado ha demostrado que, si lo dejas solo, a veces confunde progreso con barra libre. En materia de contenido sintético y deepfakes, la referencia clave es el artículo 50, que impone obligaciones de transparencia y etiquetado del contenido generado o manipulado por IA. Y en el caso de los modelos de propósito general, el artículo 53 exige documentación técnica, información para desarrolladores posteriores y resúmenes del contenido usado para entrenamiento, entre otras obligaciones.

Dicho de otra manera: Europa empieza a decirles a los grandes modelos algo muy sencillo. “No basta con ser brillantes. También tenéis que ser explicables, trazables y controlables”.

Y eso nos lleva a la comparación que de verdad merece la pena hacer.

No la de cuál responde más rápido o cuál dibuja manos con cinco dedos. Esa comparación está bien para una demo y para ese vecino tecnológico con el que compartimos Wi-Fi. La comparación útil, la que de verdad importa a empresas, instituciones y profesionales, es otra: qué tipo de daño puede facilitar cada familia de modelos, qué controles declara tener y qué presión regulatoria soporta o va a soportar.

Porque aquí ya no estamos ante juguetes.

Estamos ante sistemas capaces de producir texto persuasivo a escala industrial, generar imágenes falsas altamente creíbles, automatizar suplantaciones, introducir errores con apariencia de seguridad, amplificar sesgos, vulnerar derechos de autor y erosionar la frontera entre lo verdadero y lo probable. Y no todos los modelos fallan igual. Ni todos arrastran los mismos riesgos. Ni todos se están enfrentando al mismo tipo de escrutinio público.

Voy a hacer un repaso lo más realista posible de lo que tenemos encima de la mesa. Sin demasiada poesía, pero tampoco como si fuera un acta notarial.

Grok, por ejemplo, ha quedado esta semana en el centro de la conversación más tóxica. No porque sea el único sistema con capacidad de generar o editar imágenes, sino porque el caso reciente lo ha colocado en la peor vitrina posible: la del daño íntimo e irreversible. Aquí el problema no es solo técnico. Es reputacional, jurídico y moral. Cuando una herramienta puede ser utilizada para sexualizar a menores reales, el debate ya no va sobre innovación valiente o producto rompedor. Va sobre si el diseño, los filtros y el modelo de despliegue eran suficientemente responsables para el riesgo que ya estaba a la vista.

OpenAI, mientras tanto, juega en otra liga reputacional esta semana. No tanto por un caso comparable de daño sexualizado, sino por la presión creciente en materia de propiedad intelectual. Encyclopedia Britannica y Merriam-Webster han demandado a OpenAI alegando que sus contenidos fueron usados indebidamente para entrenar modelos como ChatGPT y que además el sistema puede reproducir material de forma demasiado cercana al original. Aquí la polémica es menos escabrosa, pero estratégicamente enorme: si el entrenamiento de los grandes modelos sigue entrando en los tribunales por la puerta del copyright, la industria tendrá que demostrar mejor de dónde salen los datos, qué se hace con ellos y dónde termina la transformación legítima y empieza el aprovechamiento puro y duro.

Anthropic se ha llevado otro frente similar. BMG ha demandado a la compañía por el supuesto uso no autorizado de letras de canciones de artistas muy conocidos para entrenar Claude. Es otra señal de la misma tormenta: durante mucho tiempo, una parte del sector ha operado con la lógica de “primero escalamos y luego ya discutiremos la factura”. Pues bien: la factura está empezando a llegar. Y no parece pequeña.

Gemini, por su parte, representa el caso del alumno que ha aprendido a base de sustos. Google mantiene políticas que restringen la generación de material sexual explícito y, según su documentación pública, la generación o edición de imágenes está muy condicionada por criterios de seguridad. Es decir: menos postureo libertario y más cinturón de seguridad. Eso no significa ausencia de riesgo, ni mucho menos. Significa que el enfoque visible está más orientado a limitar ciertos usos antes de que se conviertan en titular tóxico.

Y aquí aparece una lección que las organizaciones harían bien en tomarse en serio.

La IA no se evalúa solo por lo que puede hacer en un entorno ideal, sino por lo que permite hacer en un entorno real, con usuarios reales, incentivos reales y malas intenciones también muy reales. Ese es el cambio de pantalla. Durante meses, demasiadas conversaciones sobre IA han estado colonizadas por una mezcla de fascinación, marketing y comparativas de feria. Pero la madurez empieza cuando cambias la pregunta de “¿qué puede hacer este modelo?” por esta otra: “¿qué pasa cuando falla, cuando se usa mal o cuando directamente se diseña con una tolerancia peligrosa al abuso?”

Esa es la pregunta adulta que deberíamos hacernos.

La realidad es más áspera. La IA, especialmente la generativa trae valor, sí. Muchísimo. En productividad, asistencia, creatividad, automatización, aprendizaje, apoyo a decisiones y diseño de experiencias. Negarlo sería absurdo. Pero también trae costes, externalidades y riesgos nada menores. Y una de las peores cosas que podríamos hacer ahora es tratar todos esos riesgos como si fueran iguales o intercambiables.

No lo son.

No es lo mismo un modelo que inventa una cita bibliográfica que uno capaz de editar imágenes de personas reales para crear deepfakes sexuales. No es lo mismo un chatbot que se equivoca resumiendo un informe que un sistema que erosiona derechos de autor a escala industrial o que puede alimentar campañas masivas de manipulación. Meterlo todo en el mismo saco de “cosas de la IA” es intelectualmente perezoso y operativamente inútil.

Por eso la conversación que viene —y que muchas empresas aún no han querido tener de verdad— no es solo tecnológica. Es estratégica. ¿Qué modelos de IA usamos? ¿Para qué casos? ¿Con qué controles? ¿Con qué proveedores? ¿Con qué trazabilidad? ¿Con qué políticas de uso? ¿Con qué criterio para diferenciar eficiencia de irresponsabilidad?

La gran ironía es que la IA, que nos promete ahorrar tiempo, va a obligarnos a dedicar bastante tiempo a pensar mejor.

Y quizá eso no sea una mala noticia.

Porque, al final, el mercado puede perdonar un error técnico. Lo que perdona mucho peor es la sensación de que alguien sabía que el riesgo estaba ahí y decidió mirar hacia otro lado mientras presumía de innovación disruptiva.

Ese, en realidad, el auténtico valor de lo que persigue la regulación europea: el momento en el que dejamos de hablar de magia y empezamos a hablar de consecuencias.

Y ahí ya no gana el modelo más espectacular.

Gana el que demuestre que sabe convivir con límites, con controles, con escrutinio y con una idea bastante elemental, pero muy poco glamourosa: que cuando una tecnología toca derechos, reputaciones, intimidad y verdad pública, no basta con que funcione. Tiene que merecer funcionar.


Fuentes y referencias


- AP, Teenagers sue Musk's xAI claiming image-generator made sexually explicit images of them as minors (20/03/2026).
- Reuters, Encyclopedia Britannica sues OpenAI over AI training (16/03/2026).
- Reuters, BMG sues Anthropic for using Bruno Mars, Rolling Stones lyrics in AI training (18/03/2026).
- AESIA, Questions and answers about the AI Act: Article 50.
- AI Act Explorer, Article 50: Transparency Obligations for Providers and Deployers of Certain AI Systems.
- AI Act Explorer, Article 53: Obligations for Providers of General-Purpose AI Models.
- EUR-Lex, Rules for trustworthy artificial intelligence in the EU








domingo, 15 de marzo de 2026


  Art .10/26. El odio y la ira en la era de la inteligencia artificial

Hola a todas/os, hoy os escribo sobre algo que me parece fascinante y preocupante. Trataremos de algo muy antiguo; tanto como el ser humano. Las emociones. Y dentro de estas emociones hablaremos del odio y de la ira. Algo que me da la sensación de que se está instalando de manera bastante inconsciente entre nosotros. Inconsciente e inquietante.

¿Qué ocurre cuando un sentimiento humano tan potente entra en contacto con máquinas que amplifican información, emociones y conflictos a escala planetaria?

Vamos a pensarlo con calma, porque aquí hay materia de un tema escasamente tratado. Quizá porque no interesa a alguna parte interesada.

Una emoción antigua en un mundo tecnológicamente amplificado

Como os decía, el odio ha acompañado a la humanidad desde siempre. Civilizaciones enteras se han organizado alrededor de rivalidades, enemistades o identidades construidas contra “otros”. Lo diferente siempre ha costado integrarlo. Sin embargo, en el mundo contemporáneo ha aparecido un elemento nuevo: la tecnología digital y, como ya suponéis, la inteligencia artificial.

Lo interesante es que el odio no es una emoción simple. La Real Academia Española lo define como «antipatía y aversión hacia algo o hacia alguien cuyo mal se desea». No se trata de una emoción primaria como el miedo o la sorpresa, sino de una combinación compleja de experiencias, frustraciones, historia personal y construcción social. 

En la tradición filosófica y psicológica se ha diferenciado el odio de la ira. La ira surge de una injusticia concreta y busca reparación. El odio, en cambio, es más abstracto y generalizado: no se dirige solo contra una persona, sino contra grupos enteros. Por eso es mucho más peligroso. Estas reflexiones se citan en los análisis clásicos sobre las pasiones humanas de San Agustín y Brunetto Latini.

Durante siglos, el alcance de estas emociones estaba limitado por la escala humana: familias, ciudades, pueblos o naciones. Hoy el escenario es radicalmente distinto porque la tecnología ha amplificado los límites y ahora todos y todas vivimos en eso que se ha dado en llamar; aldea global.

El algoritmo como amplificador emocional

Las redes sociales han introducido un fenómeno que los investigadores llaman economía de la atención. En términos simples: los contenidos que generan más reacción emocional reciben más visibilidad.

Y aquí aparece un problema totalmente humano. Y que está siendo aprovechado de manera oscura por algunas organizaciones y personas.

Las emociones negativas —indignación, miedo, odio— generan más interacción que las neutrales o positivas. Un estudio del MIT publicado en Science mostró que los contenidos emocionales se propagan significativamente más rápido que los neutrales en redes sociales. Al final podéis comprobar estos datos en la bibliografía que os adjunto. 

Los algoritmos no “odian”, claro. Esto es evidente. No tienen emociones. Pero sí optimizan variables matemáticas como clics, tiempo de visualización o interacción.

Y eso puede producir un efecto curioso: las máquinas terminan amplificando lo que más activa emocionalmente a los humanos.

En otras palabras: si el odio genera más engagement, el sistema lo expande. Así de simple.

Y no lo hace por maldad. Las máquinas no tienen sentimientos. Lo hacen por estadística.

La inteligencia artificial y la nueva escala del conflicto

La inteligencia artificial añade una capa adicional a este fenómeno. Y es conveniente explicarlo.

Hoy ya existen sistemas capaces de:

· Generar texto, imágenes o vídeos automáticamente

· Segmentar audiencias con enorme precisión

· Amplificar mensajes en redes mediante bots o automatización

Esto significa que las emociones colectivas pueden ser diseñadas, manipuladas o amplificadas a escala industrial.

Un informe del Oxford Internet Institute ha documentado campañas de manipulación política en redes sociales en más de 80 países, muchas de ellas usando automatización o inteligencia artificial. No entraré al detalle, pero muchos y muchas tenéis ejemplos en  mente.

El resultado es un ecosistema donde el odio puede convertirse en un recurso político,  económico y las dos cosas a la vez. Y siempre relacionado con el poder.

En cierto modo, la tecnología ha transformado una emoción antigua en una infraestructura moderna. Y manipulado a alto nivel para conseguir oscuros intereses.

El riesgo de la deshumanización digital

Hay un fenómeno psicológico que se intensifica en entornos digitales: la despersonalización del adversario.

Cuando una persona se convierte en un avatar, un perfil o una etiqueta ideológica, resulta más fácil odiarla. La distancia psicológica elimina frenos naturales como la empatía.

Este efecto fue descrito por el psicólogo John Suler como “online disinhibition effect”, es decir, la tendencia de las personas a comportarse de manera más agresiva o extrema en internet.

La inteligencia artificial puede potenciar este fenómeno si se utiliza para:

· Crear ejércitos de perfiles falsos

· Generar mensajes polarizadores

· Manipular narrativas informativas

En ese escenario, el odio deja de ser solo una emoción humana y se convierte en una dinámica sistémica.

Pero la tecnología también puede ser parte de la solución

No nos quedemos solo en lo negativo. Aquí aparece una parte interesante y que también tenemos que abordar.

La misma inteligencia artificial que puede amplificar conflictos también puede ayudar a reducirlos.

Actualmente ya se utilizan sistemas de IA para:

· Detectar discurso de odio en plataformas digitales

· Identificar campañas coordinadas de desinformación

· Moderar contenidos violentos o radicalizadores

Por ejemplo, Meta y Google utilizan modelos de aprendizaje automático para detectar automáticamente discurso de odio o incitación a la violencia en millones de publicaciones cada día. Otra cosa son las indicaciones que reciban para “suavizar” ese control.

Y ese es el problema; que la tecnología nunca actúa sola.
Siempre depende de las decisiones humanas que la gobiernan.

El verdadero desafío: gobernar nuestras propias emociones

Al final, el problema no es la inteligencia artificial. El problema somos nosotros.

La tecnología amplifica lo que somos como especie: cooperación, creatividad, conocimiento… pero también miedo, tribalismo y odio.

Recordando de nuevo a San Agustín, este advertía hace siglos que la ira puede transformarse en odio si no se controla. En el siglo XXI podríamos reformular esa idea de forma casi tecnológica:

la emoción no gestionada correctamente se convierte en un sistema manipulado.

Y cuando una emoción humana se convierte en sistema tecnológico, su escala cambia radicalmente.

Una paradoja muy del siglo XXI

Nunca habíamos tenido herramientas tan poderosas para conectarnos. Nunca habíamos tenido acceso a tanta información.

Y, sin embargo, muchas sociedades experimentan niveles crecientes de polarización. Seguramente porque la lección es más filosófica que tecnológica.

La inteligencia artificial puede procesar datos, identificar patrones y generar conocimiento. Pero hay algo que sigue siendo profundamente humano: la capacidad de decidir qué emociones queremos cultivar como sociedad.

Porque una civilización no se define por las máquinas que construye, sino por las emociones que decide amplificar.

Y esto es algo que la masa suele olvidar, pero no los que controlan los algoritmos. A ellos les interesa conocer estos mecanismos.

 Fuentes y referencias

· Real Academia Española – Diccionario de la lengua española

· Vosoughi, S., Roy, D., Aral, S. (2018). The spread of true and false news online. Science

· Oxford Internet Institute (2023). Global Disinformation Order

· Suler, J. (2004). The Online Disinhibition Effect. CyberPsychology & Behavior

· La Civiltà Cattolica – análisis filosófico sobre el odio y la ira

Infografía creada con IA a partir de texto humano
Video creado con Notebook LLM a partir del texto anterior

Y si quieres escuchar un resumen en spotify, clica encima 




                Art 12/26. Cuando la IA necesita más FilosofIA       Nos prometieron una revolución inteligente. Y vaya si ha llegado. La IA...