domingo, 15 de febrero de 2026

 


Artículo 6/26.  Tus hijos, la IA y el cerebro prestado: manual de supervivencia para padres actuales

Hoy vamos a ponernos en modo doméstico. En algo que me preguntáis de tanto en tanto y que NO tiene que ver con la IA en el ámbito corporativo; que hacer con los modelos de Inteligencia Artificial que ya han entrado en casa y mis hijos/as no me dicen nada.

Pues bien. Ahora pasa algo curioso; ya no temes tanto que tus hijos/as suspendan mates… temes que aprueben todo sin aprender nada. Y vas bien encaminado/a.

Porque ahora existe el “modo turbo”: una IA que te hace un trabajo brillante, te lo redacta como si fueras un pequeño Cervantes con TDAH controlado y, encima, te lo entrega con tono “alumno aplicado”. Este nuevo rincón del vago que todo estudiante busca como sueño húmedo del mínimo esfuerzo.

Y claro, el miedo real no es “la IA”. El miedo es qué cerebro y qué carácter deja si los alumnos/as  la usan como chuleta permanente. El miedo es el desierto neuronal, una metáfora que me viene al pelo. Como dice la UNESCO: o pilotamos nosotros con competencias humanas, o la educación se queda en piloto automático. Y ya sabemos lo que ocurre cuando no hay nadie al volante.

Vamos por partes: cómo usar IA en educación sin atrofiar neuronas, qué límites poner en casa, cómo detectar dependencia y cómo no caer en el circo de deepfakes y desinformación.

 

1) IA en clase: ¿Tutor o Fantasma?

La IA no te roba la creatividad. Te roba la práctica. Y sin práctica, la creatividad se vuelve decoración.

La OCDE lo ha descrito con una expresión que debería imprimirse en la puerta del instituto: “falsa maestría”. Rindes más “en apariencia”, pero puedes estar aprendiendo menos por dentro. Para que me entendáis los que venís de los 90; el cerebro se pone en modo “salvapantallas”; detrás no hay nada.

La diferencia, bastante evidente, es separar “aprender” de “copiar”. Y os pongo algunos ejemplos. Eso sí, yo recomiendo la supervisión porque si no se nos va de las manos.

Modo Tutor (el que sirve, el que nos ayuda):

  • “Explícamelo como si tuviera 12 años.” Esto lo hacemos cualquiera para entender cosas complejas
  • “Hazme 5 preguntas y corrígeme.”  Modo ejercicios y tutor personalizado.
  • “Dame 3 ejemplos y 3 errores típicos.” Preparando bien cualquier ejercicio.

Esto entrena la cabeza y así sacamos el jugo y potencial de esta herramienta.

Modo Copiloto; con reglas y sin procrastinar, que todos hemos pasado por ahí:

  • Ideas, esquemas, alternativas, mejora de redacción después de entender, no antes.
  • Debate: “Dame el argumento contrario y refútalo con evidencias.” Esto es lo que deberíamos haber hecho en las aulas desde hace años y sin IA. Pero bueno nunca es tarde.

Esto acelera el aprendizaje, pero tú conduces. Que de eso se trata.

Modo Fantasma. Red flag. Atentos que esto es lo que vemos que está pasando:

  • “Hazme el trabajo entero y que parezca mío.” Aunque parezca evidente lo indico por si acaso: eso no es estudiar. Eso es subcontratar el cerebro.

Regla básica, simple y eficaz que deberíamos empezar a aplicar de manera inmediata en casa, colegios y universidades:

Si no lo pueden explicar en voz alta en 2 minutos, no lo han aprendido.
El texto puede ser precioso; la comprensión, o está, o no está.

 

2) Límites en casa: no se trata de prohibir, se trata de rediseñar un nuevo ecosistema

Intentar prohibir la IA es como intentar que no llueva. No va a parar. Es como los padres/madres que siguen pensando que sus hijos/as nunca han entrado en páginas poco recomendables. Así que, amigos y amigas, toca diseñar el búnker:

  • Zonas Sagradas: Comidas, charlas y la hora antes de dormir son territorio libre de máquinas con silicio.
  • El móvil no duerme en su cuarto: Sí, se que esto va a doler y traer polémica. Pero una cosa hemos de tener clara: el sueño es el reset del cerebro. Si dejas que el algoritmo le susurre antes de dormir, el resto del día será un zombi. Como resumen, la cama debería ser un santuario sin móvil.
  • Higiene de Apps: Si una app te da la respuesta masticada y sin esfuerzo, sospecha. La perfección es, hoy más que nunca, otra señal de aviso. Y que os quede claro;  no todo lo que “ayuda” es educativo:

1- Bien: herramientas que enseñan, preguntan, explican, te ayudan a planificar.
2- Vigiladas: generadores de trabajos “perfectos” (como ya os he dicho, la perfección suele ser sospechosa).
3- Prohibidas por defecto: apps con recomendación agresiva y comunidad/DMs sin control real. Esto no haría falta que os lo dijera.

Porque sí;  estamos hablando de controlar el contenido y poner filtros y límites. Yo lo definiría con una frase: ponerse el cinturón de seguridad no es censura.

Con lo que estamos viendo de deepfakes, estafas y manipulación a  todas las escalas, los filtros ya no son “para niños”: son higiene básica.

 
3) Señales de dependencia, aislamiento y “algoritmo tóxico” (cuando la pantalla ya es la que está tomando el control)

Aquí ya tenemos ciencia y datos de la vida real. La APA y el Surgeon General en EE. UU. han señalado que el problema no es “usar redes/tecnología”, sino su uso problemático: cuando afecta a sueño, humor, relaciones y funcionamiento diario.

Señales prácticas que indican “mono digital” (y no es psicología de salón):

  • Irritabilidad fuerte cuando se corta el acceso (desregulación, no simple enfado).
  • Sueño peor + cansancio constante.
  • Aislamiento: menos planes offline, menos deporte, menos esfuerzo y menos conversación.
  • Baja tolerancia al esfuerzo: “me aburre” todo lo que no sea instantáneo o se resuelva con un click (como leer esto).
  • Realidad filtrada: el feed como brújula moral (“si no sale, no existe”).

Y ojo con un detalle moderno: la IA puede amplificar la desinformación y la radicalización por recomendación, porque el algoritmo no optimiza “verdades”; optimiza retenciónes. Que ya sé que lo sabíais pero por recordarlo.

 

4) Deepfakes, voz falsa, CSI en casa  y la era en el que pensamos -y con razón- “ya no sé qué es real”

Bienvenidos al mundo donde tu cuñado puede mandar un vídeo “del ministro diciendo X” y tú tienes que hacer de CSI, pero sin presupuesto.

La UE se está moviendo: bajo el AI Act hay obligaciones de transparencia y etiquetado para cierto contenido sintético como los  deepfakes. La Comisión, de hecho, trabaja en códigos de práctica para marcar/etiquetar contenido generado.
Y España ha empujado fuerte con propuestas y medidas sobre etiquetado y consentimiento, con multas y foco explícito en estos deepfakes.

Señales rápidas (no son infalibles, pero os serán útiles)

  • Audio raro: entonación plana, respiración extraña, cortes.
  • Vídeo con cortes frecuentes, sin planos largos, labios “perfectos” o microgestos extraños. Aunque algunos políticos/as reales puedan dar lugar a confusión.
  • Mensaje con urgencia emocional: “¡compártelo antes de que lo borren!” (un clásico de la manipulación).

Algunas herramientas sencillas para humanos que quieran hacer comprobaciones:

  • Google “About this image”: os dará contexto y apariciones en la web.
  • InVID/WeVerify: plugin clásico para ver fotogramas clave y rastrear contexto.
  • Content Credentials (C2PA): estándar de procedencia/autenticidad (cuando está presente, claro).

Y una mala noticia pero que es bueno que lo sepáis; aunque existan estándares, las plataformas a veces no los muestran o no los preservan. Un experimento periodístico lo dejó bastante en evidencia.

 

5) IA y bienestar, algunos consejillos:

La IA bien usada puede ser un buen momento para coger hábitos saludables:

  • Planificar semana, dividir tareas grandes, ordenar prioridades.
  • Rutinas saludables realistas (comida, ejercicio, sueño).
  • Diario guiado: “¿qué me preocupa?, ¿qué puedo controlar?, ¿qué acción mínima hago hoy?”

La línea roja:

  • Cuando se convierte en “mi única compañía”, “mi anestesia”, “mi juez” o “mi oráculo”.
    Ahí ya no es herramienta: es dependencia con una interfaz chula.


6) Periodismo y debate público: la verdad se está encareciendo.

Y aquí viene otra cosa muy lamentable: la IA no va a matar el periodismo… pero sí puede matar el modelo económico y complicar la confianza.

El Reuters Institute midió algo que creo es importante resaltar: la gente se siente mucho menos cómoda con noticias “hechas totalmente por IA” (en torno al 12%) y la aceptación sube si hay humanos en el circuito.
Este febrero de 2026, editores europeos han escalado el conflicto contra Google por resúmenes con IA y uso de contenido, precisamente por el impacto en la sostenibilidad del periodismo.

Lo que viene (con bastante probabilidad):

  • Mucho contenido barato “creíble” en apariencia.
  • Más valor para medios con verificación real y reputación.
  • Más ruido, más polarización y más burbujas si nadie enseña a contrastar.

Traducción para padres y sociedad en general: el pensamiento crítico va a ser una skill premium. Aunque no será porque esto no os lo vengo repitiendo desde hace tiempo.

 

Pacto familiar en 7 líneas (para poner en la nevera con un imán de esos que os han traído de un viaje)

  1. IA sí, pero Tutor/Copiloto, no Fantasma.
  2. Dormir y comer sin pantallas.
  3. Móvil fuera de la cama.
  4. Antes de compartir: pausa + verifica (utiliza alguna herramienta como las comentadas; About this image / InVID).
  5. Si te enfada mucho, sospecha: emoción fuerte = manipulable.
  6. Cada día algo offline obligatorio (deporte, paseo, aburrimiento fértil).
  7. Si hay señales de uso problemático, se habla y se ajusta (no se castiga a ciegas).

No quiero terminar con la idea de criar hijos “sin IA”. Se trata de criar hijos que manden sobre la IA. Porque al final del día, amigos y amigas, la diferencia entre un líder y un esclavo del algoritmo no está en el software que usan, sino en los hábitos, las reglas claras y esas conversaciones incómodas... pero cortas. No dejes que el cerebro de tu hijo se quede en alquiler. Asegúrate de que él siempre tenga las llaves.


Para saber más:

·       UNESCO: Guidance for generative AI in education and research.

·       OCDE: Digital Education Outlook - "False Mastery" concept.

·       APA (American Psychological Association) & US Surgeon General: Advisory on Social Media and Youth Mental Health (Update 2024-2025).

·       Unión Europea: EU AI Act (Transparency and Deepfake labeling regulations).

·       Reuters Institute: Digital News Report (Consumer trust in AI-generated news).

·       C2PA (Coalition for Content Provenance and Authenticity): Standards for digital content provenance.

·       Actualidad Feb 2026: Conflicto editores europeos vs. Google sobre AI overviews y sostenibilidad.

 

 





No hay comentarios:

  Artículo 6/26.   Tus hijos, la IA y el cerebro prestado: manual de supervivencia para padres actuales Hoy vamos a ponernos en modo domésti...