Art 12/26. Cuando
la IA necesita más FilosofIA
Nos prometieron una revolución inteligente. Y vaya si ha llegado. La IA escribe, dibuja, decide, recomienda, resume y hasta parece pensar con más orden que muchos humanos con despacho, presupuesto y tarjeta de visita. El problema es que, mientras medio mundo sigue aplaudiendo sus prodigios como si estuviéramos en una feria tecnológica con barra libre, empieza a asomar una verdad bastante menos cómoda: quizá no necesitábamos solo máquinas más potentes. Quizá necesitábamos, antes que eso, una sociedad bastante menos ingenua. Porque cuando una tecnología empieza a rozar la verdad, la reputación, la intimidad, la infancia o el poder, ya no basta con que funcione. Tiene que saber convivir con límites. Y justo ahí es donde descubrimos que la IA, por sí sola, no se basta. Que necesita algo mucho más antiguo, mucho más incómodo y mucho menos vendible: FilosofIA.
Durante meses hemos asistido a un espectáculo
bastante previsible. La inteligencia artificial escribe, dibuja, resume,
traduce, programa, corrige, ordena, recomienda y encima lo hace a una velocidad
que deja a más de uno con cara de haber descubierto fuego por primera vez.
Todo muy impresionante. Todo muy vendible. Todo
muy de titular con música épica de fondo.
Pero después de hablar en artículos anteriores
del odio, de la ira y del daño real que ciertas derivas tecnológicas ya están
empezando a facilitar, toca decir algo menos sexy, menos marketiniano y
bastante más importante:
a la IA le empieza a hacer falta más FilosofIA.
Sí. Filosofía.
Esa vieja conocida que muchos mandaron al
trastero porque no programaba, no escalaba, no levantaba rondas y no parecía
útil en un PowerPoint lleno de palabros en inglés. Pues resulta que ahora,
justo ahora, cuando las máquinas parecen hacer cada vez más cosas, lo que más
necesitamos no es solo más potencia.
Necesitamos más criterio.
Más sentido.
Más límites.
Más pensamiento incómodo.
Porque lo que está en juego ya no es únicamente
si una IA responde mejor, genera imágenes más espectaculares o automatiza más
tareas que la competencia. Eso está bien para una demo, para una keynote o para
ese cuñado tecnológico que se viene arriba en las cenas.
La pregunta seria ya es otra:
¿qué estamos normalizando mientras aplaudimos?
Y esa ya no es una cuestión técnica.
Es una cuestión filosófica.
La
inteligencia artificial sabe hacer cosas. Otra cosa es que sepa cuándo no
debería
Este es uno de los grandes autoengaños de nuestra
época.
Hemos confundido inteligencia con capacidad de
cálculo, velocidad con comprensión y resultados con juicio. Y no, no es lo
mismo. Ni de lejos.
Una IA puede producir textos excelentes sin
entender una sola palabra de lo que significa la verdad. Puede generar una
imagen emocionalmente devastadora sin comprender qué es la dignidad. Puede
recomendar decisiones sin saber lo que pesa una injusticia. Puede sonar
convincente sin tener ni idea de lo que dice. Y puede acertar muchas veces sin
haber entendido jamás una sola consecuencia humana de sus actos.
Es decir: puede parecer brillante y seguir siendo
ciega en lo esencial.
Y eso, sinceramente, debería preocuparnos
bastante más de lo que preocupa.
Porque si una tecnología entra en terrenos donde
toca reputación, infancia, intimidad, convivencia, salud mental, derechos,
educación, trabajo o verdad pública, no basta con que funcione. Ni siquiera
basta con que funcione muy bien.
Tiene que convivir con límites.
Y ahí es donde empieza la parte en la que ya no
basta con ingenieros, producto y negocio celebrándose mutuamente en círculos.
Ahí empieza la parte en la que hacen falta ética,
filosofía, derecho y una idea mínimamente decente de ser humano.
No todo lo que
se puede hacer merece hacerse
Sé que esto suena poco moderno. Casi antiguo.
Pero alguien tendrá que decirlo sin complejo alguno: no toda posibilidad
técnica merece convertirse en práctica social.
Podemos crear deepfakes.
Podemos clonar voces.
Podemos automatizar propaganda.
Podemos fabricar intimidad falsa.
Podemos sexualizar digitalmente a personas reales.
Podemos erosionar derechos de autor a escala industrial.
Podemos construir sistemas que optimizan atención a costa de la salud mental o
de la polarización.
Podemos, sí.
La cuestión no es si podemos.
La cuestión es si estamos tan deslumbrados por la
capacidad que hemos dejado de preguntarnos por el coste moral, social y
político de usarla.
Y aquí está una de las trampas más peligrosas del
momento: hay demasiada gente confundiendo innovación con ausencia de freno.
Como si poner límites fuera de cobardes, de viejos o de gente que “no entiende
el futuro”.
Pues no.
En tecnologías con capacidad de amplificar daño,
poner límites no es ir contra el futuro.
Es intentar que el futuro no se convierta en una
barbaridad perfectamente optimizada.
La gran
ironía: máquinas cada vez más listas, sociedades a veces cada vez más torpes
Esta parte me parece fascinante y bastante
inquietante.
Nunca habíamos tenido herramientas tan potentes
para acceder a conocimiento, automatizar tareas, mejorar procesos o generar
contenido.
Y, sin embargo, nunca había sido tan visible lo
mal que se nos da distinguir entre información y criterio, entre persuasión y
manipulación, entre eficiencia y legitimidad.
La IA no está creando solo una revolución
tecnológica.
Está provocando un examen moral.
Nos está obligando a preguntarnos qué tipo de
sociedad somos cuando disponemos de herramientas descomunales y aun así
seguimos tentados de usarlas para degradar, manipular, polarizar, copiar,
suplantar o convertir la verdad en algo negociable.
Porque aquí está el núcleo del asunto: la IA
no trae ética de serie.
No lleva conciencia instalada.
No incorpora prudencia por defecto.
No incluye compasión en la versión premium.
Lo único que hace, en buena medida, es amplificar
capacidades. Y cuando una capacidad humana no va acompañada de criterio, el
resultado puede ser espectacular. Sí. Pero espectacularmente peligroso.
La IA no
inventa nuestros peores impulsos. Los escala
Este punto me parece clave para cerrar la
trilogía.
En los textos anteriores ya aparecía una idea de
fondo: el problema no son solo las máquinas. El problema es lo bien que pueden
amplificar lo peor de nosotros cuando les damos el contexto adecuado y quitamos
de en medio cualquier freno incómodo.
La IA no inventó el odio.
No inventó la ira.
No inventó la mentira.
No inventó la manipulación.
No inventó el narcisismo, la codicia ni la deshumanización.
Lo que sí puede hacer es darles volumen,
velocidad, personalización y escala.
Y ahí cambia todo.
Porque una cosa es que un ser humano haga daño
con sus limitaciones naturales. Y otra muy distinta es que disponga de sistemas
capaces de multiplicar ese daño a velocidades industriales, con apariencia de
neutralidad y bajo el envoltorio glamouroso de la innovación.
Por eso, cuando se habla de IA como si fuera
simplemente una herramienta neutra, conviene hacer una pequeña pausa. Las
herramientas nunca son del todo neutras cuando alteran incentivos, rebajan
barreras, redistribuyen poder y hacen rentable lo que antes era más costoso o
menos creíble.
Pensar lo contrario es infantil.
O interesadamente infantil.
FilosofIA no
es postureo humanista
Aclaremos esto, porque ya nos conocemos y el
mercado tiene mucha habilidad para convertir cualquier idea seria en
merchandising de baja calidad.
Hablar de FilosofIA no es ponerse estupendo. No
es citar a Aristóteles en una slide bonita. No es decorar una estrategia de IA
con una frase de Séneca para que parezca que aquí se reflexiona mucho.
No.
Hablar de FilosofIA es hacer preguntas incómodas
antes de desplegar una tecnología, no después del escándalo.
Es preguntarse:
- qué
modelo uso y por qué,
- qué
riesgos acepto y cuáles no,
- qué
derechos pueden verse afectados,
- qué
controles exijo al proveedor,
- qué usos
prohíbo internamente,
- qué
errores no pienso tolerar aunque mejoren la productividad,
- qué parte
de lo humano no quiero externalizar a una máquina por muy bien que
funcione.
Eso sí sería filosofía aplicada.
Lo otro suele ser maquillaje corporativo con
fondo azul y palabras como trustworthy, human-centric y responsible
escritas en tipografía elegante mientras por detrás nadie ha cambiado
prácticamente nada.
La batalla
importante no será por quién tiene la IA más potente
Nos están entreteniendo bastante con la carrera
de capacidades. Qué modelo razona mejor. Qué otro genera mejores vídeos. Cuál
responde más rápido. Cuál automatiza más. Cuál impresiona más en benchmarks que
casi nadie fuera del sector sabría explicar del todo.
Y mientras tanto, la discusión verdaderamente
importante avanza más despacio de lo que debería:
qué tipo de límites necesita una sociedad para no
entregarle demasiadas cosas a sistemas que no entienden el bien, el mal, la
justicia, la verdad ni la dignidad.
Esa es la conversación adulta.
La otra, siendo sinceros, se parece demasiado a
una feria de vanidades con servidores de fondo.
Porque el modelo más espectacular no será
necesariamente el más valioso.
Cada vez tengo más claro que en los próximos años
no ganará solo quien tenga la IA más brillante, sino quien sea capaz de
demostrar que sabe convivir con límites, con trazabilidad, con escrutinio, con
derechos y con algo muy poco glamouroso pero completamente esencial: responsabilidad.
Nos hace falta
menos fascinación y más madurez
Creo que ese es el resumen profundo.
Hemos hablado mucho de lo que la IA puede hacer.
Ha llegado el momento de hablar con la misma
intensidad de lo que no debería facilitar, de lo que no deberíamos tolerar y de
las renuncias que una sociedad decente tendría que estar dispuesta a defender,
aunque eso ralentice un poco la fiesta.
Porque el problema nunca fue que la tecnología
avanzara.
El problema empieza cuando el juicio moral
retrocede.
Y quizá ahí está la madre del cordero: hemos
construido herramientas cada vez más potentes en una cultura que a veces premia
más la velocidad que la sabiduría, más la escala que la responsabilidad y más
el impacto que el sentido.
Mala combinación.
Muy mala.
Fuentes:
- Real
Academia Española – Diccionario de la lengua española
- Vosoughi,
S., Roy, D., Aral, S. (2018). The spread of true and false news online.
Science
- Oxford
Internet Institute – Global Disinformation Order
- Suler, J.
(2004). The Online Disinhibition Effect. CyberPsychology &
Behavior
- Reglamento
europeo de Inteligencia Artificial (AI Act), especialmente artículos sobre
transparencia, gobernanza y obligaciones para modelos de propósito general
- AESIA –
materiales explicativos sobre el AI Act
- UNESCO – Recommendation
on the Ethics of Artificial Intelligence
- OECD –
principios sobre inteligencia artificial confiable
- Stanford
Encyclopedia of Philosophy – entradas sobre ética, responsabilidad moral y
filosofía de la tecnología

.png)
.png)
No hay comentarios:
Publicar un comentario