ODILO Noticias

‘Profes’ y algoritmos: el salto definitivo de la IA a las aulas

Categorías:

Este curso 2025-26 marca un punto de inflexión decisivo: asistentes digitales, generadores de ejercicios y plataformas inteligentes se integran masivamente en las aulas, con más del 75% del profesorado español previendo su uso, según una encuesta de Kahoot! Sin embargo, la revolución tecnológica en los centros no viene sola; trae consigo un debate crucial: ¿Puede la IA apoyar y personalizar el aprendizaje sin reemplazar la indispensable conexión emocional y el pensamiento crítico que definen a la educación humana?

Artículo publicado por Cuadernos de Pedagogía

En muchos centros españoles, el inicio del curso no solo trae libros y pizarras nuevas: también llegan asistentes digitales, generadores de ejercicios y plataformas con funciones de inteligencia artificial (IA). Esa transformación no es casualidad, sino reflejo de una tendencia creciente: la integración masiva de herramientas de IA en la educación.

Una encuesta reciente de Kahoot!, una plataforma de aprendizaje y evaluación interactiva basada en el juego (gamificación), realizada a más de 1.100 profesores españoles refleja que más del 75 % del profesorado prevé utilizar herramientas de IA durante el curso 2025-26. Entre los usos más citados están la preparación de contenido educativo (37 %), el aprendizaje virtual (18 %) y la gamificación de clases (17 %).

Pero esa cifra no existe en el vacío: está acompañada de informes globales que muestran cómo la IA se extiende en el ámbito educativo. Según el 2025 AI in Education Report de Microsoft, el uso de IA generativa ha crecido rápidamente: más del 86% de las organizaciones educativas ya emplean herramientas de este tipo, y el porcentaje de docentes que afirma utilizarlas sube 21 puntos respecto al año anterior.

Ainhoa Marcos, Global VP Education Public Sector de ODILO, aborda con claridad los desafíos éticos que la Inteligencia Artificial plantea en el ecosistema educativo. Para ella, la premisa fundamental es que “la IA es siempre una herramienta de apoyo y no un fin en sí mismo”, un concepto que debe quedar claro para toda la comunidad educativa.

Marcos asegura que la IA nunca debe sustituir la lección del profesor ni el desarrollo de habilidades esenciales en el alumno: “tampoco es sustituto ni de la creatividad ni del pensamiento crítico”. Por ello, insiste en que educar a los estudiantes en un uso responsable de la tecnología es un apartado tan crucial como “enseñar matemáticas o lengua”.

La aplicación de la IA conlleva un reto ineludible en materia de privacidad, dado que recopila información sensible sobre el ritmo de aprendizaje, preferencias y hábitos de los estudiantes. Marcos hace hincapié en la necesidad de “garantizar que nuestra plataforma y proveedor de IA cumple con la normativa vigente” y gestiona los datos de forma responsable, algo que es vital para generar confianza.

La experta señala la necesidad de que la tecnología empleada sea “ética en sí misma”, es decir, que no perpetúe desigualdades o sesgos. Por ello, la revisión y “validación constante del uso de estas tecnologías” por parte de humanos es imprescindible para asegurar la equidad y calidad educativa.

Para abordar estos retos, Ainhoa Marcos considera que se necesitan con urgencia normativas claras sobre la privacidad y la protección de datos de los estudiantes. Esto implica definir con precisión qué datos pueden ser recopilados, cómo se almacenarán y quién puede acceder a ellos, puntos sobre los que “es importante ser claros con los docentes y los padres”.

Además, deben existir estándares que garanticen la calidad y equidad de los contenidos generados por IA. Marcos recomienda auditar las plataformas y confiar en proveedores con experiencia que trabajen de la mano de la comunidad educativa y la Administración Pública, asegurando así que los materiales sean “precisos, inclusivos y educativos”.

En la práctica diaria, la experta de ODILO añade que los centros deben establecer protocolos de responsabilidad docente, definiendo cómo se usa la IA y cómo los profesores deben “validar, supervisar y guiar” su aplicación. De esta forma, se protege tanto al estudiante como al docente y se asegura que la tecnología cumpla su función de apoyo. Es de suma importancia, concluye, la “formación de docentes y sobre todo de alumnos, en el uso ético y responsable de la IA”.

Respecto a cómo garantizar que la IA sea un apoyo y no un reemplazo de la interacción humana, Marcos sostiene que el primer paso es “reconocer que la IA no puede reemplazar la figura del docente”. Si bien la tecnología es excelente para la personalización y la recomendación de contenidos, la educación conserva una “parte emocional y humana de acompañamiento en la que la IA no puede llegar”. El docente, subraya, seguirá siendo “el guía, la referencia y evaluador crítico”.

Otro punto clave es integrar la IA de forma intencional y supervisada. La especialista explica que es fundamental establecer un marco de uso claro donde el docente modere, valide y contextualice el aprendizaje. Así, se evita que la IA se convierta en una solución de inmediatez y se respeta el valor de la interacción humana.

Asimismo, es crítico formar a los estudiantes para que la IA se convierta en un “superpoder educativo”. Deben aprender a citar fuentes correctamente, evaluar su fiabilidad y entender las limitaciones de la tecnología. Solo así, enfatiza Marcos, la IA aportará valor al aprendizaje y no se convertirá en un sustituto del pensamiento o la creatividad.

Usos pedagógicos

En los centros que ya experimentan con IA, los usos son múltiples:

  • Generación de materiales y recursos : los docentes usan la IA para diseñar presentaciones, fichas de ejercicios, simulaciones o recursos interactivos adaptados al nivel del alumnado.
  • Evaluación automatizada y retroalimentación inmediata: sistemas asistidos por IA corrigen cuestionarios, ofrecen pistas y retroalimentación instantánea.
  • Adaptación personalizada: la IA ajusta la dificultad de tareas según las respuestas previas de cada estudiante.
  • Apoyo a estudiantes con dificultades: generación de resúmenes automáticos, traducción, lectura asistida, modificación de enunciados.
  • Asistente intelectual en el aula: como “copiloto” que sugiere ideas, plantea preguntas o ayuda a planificar a estudiantes y profesores.

El informe de Microsoft AI in Education Report: Insights to Support Teaching and Learning (2025) subraya que la IA ya no es solo un asistente pasivo, sino que empieza a actuar como “socio de pensamiento”, colaborando en decisiones pedagógicas.

Sin embargo, no todos los docentes la usan del mismo modo. Un estudio en España de Educación 3.0 revelaba que el 64 % de profesores ya empleaba IA para preparar clases, aunque un porcentaje menor la considera de impacto muy positivo en el aprendizaje real.

Para la psicóloga Yolanda Romero, socia fundadora y directora técnica de ICEPS, la tecnología ofrece una herramienta de transformación, pero lanza una advertencia clara: la IA “puede transformar la forma de aprender, pero no debe sustituir lo esencial, la conexión emocional y la mirada humana que sostienen el desarrollo de cada niño”. En sus palabras, “el aprendizaje no se automatiza, se acompaña”.

Romero enfatiza que la tecnología, si bien es poderosa, no debe erosionar cuatro aspectos clave en el desarrollo de niños y adolescentes: la autorregulación emocional y la irremplazable figura del mentor emocional, además de evitar la pérdida del pensamiento crítico y la dependencia de la inmediatez.

La psicóloga señala que en un mundo donde el acceso al conocimiento es inmediato, el verdadero desafío ha cambiado: ya no se trata solo de saber, sino de mantener “la atención, la paciencia y la motivación ante la dificultad”. “Los niños y adolescentes necesitan aprender a tolerar la frustración, confiar en sus capacidades y sostener el esfuerzo sin esperar resultados instantáneos,” afirma la experta.

Sobre el rol que la tecnología no puede asumir, Romero es tajante: “El de mentor emocional, sin duda.” Si bien la IA puede diseñar actividades atractivas, ninguna tecnología puede reemplazar “la mirada que contiene, comprende y motiva”. Según la directora técnica de ICEPS, el aprendizaje es intrínsecamente humano y nace de esa conexión. Romero subraya que “los niños aprenden mejor cuando se sienten vistos, escuchados y acompañados”.

Riesgos y desafíos

  • Brecha tecnológica y desigualdad: Una de las amenazas más claras a la implementación equitativa de la IA es la disparidad en acceso a dispositivos y conexión. En regiones con infraestructuras limitadas, el avance tecnológico puede convertirse en un nuevo factor de desventaja.

La Fundación Cotec, en un estudio iniciado en 2025 titulado “IA y educación” y basado en respuestas de más de 7.000 personas (entre comunidad educativa y población general), busca comprender el impacto de la IA en educación y resalta la urgencia de políticas que corrijan esas desigualdades.

Por otra parte, el estudio “Educar en la era de la IA (2025)”, elaborado por Empantallados y GAD3, señala que el 70 % de los docentes impone límites al uso de la IA en clase, mientras que solo el 40 % de los padres hace lo mismo en casa. Además, seis de cada diez adolescentes admiten haber ignorado esas restricciones.

Respecto a cómo la IA puede afectar la brecha de desigualdad, Àngels Soriano Sánchez, coordinadora del título Experto Universitario en IA en Educación de la Universidad Internacional de La Rioja (UNIR), sostiene que, “al igual que otras tecnologías anteriores, ofrece la posibilidad de mejorar las competencias digitales de nuestros estudiantes”. No obstante, la clave está en el acompañamiento docente: “siempre y cuando les acompañemos en un uso consciente, con sentido pedagógico”.

La experta apunta directamente al desafío al afirmar que los estudiantes ya tienen acceso a aplicaciones e incluso a la IA generativa a través de sus móviles, lo que traslada el foco a la educación ética. Subraya que “el desafío está en educarles en el uso ético de la IA”. De esta forma, asegura, los alumnos tomarán conciencia “desde un punto de vista crítico, sin sesgos, equitativo y responsable con el otro y el planeta que habitamos”.

En cuanto a los modelos pedagógicos más efectivos, la coordinadora de UNIR hace hincapié en que la implementación de la IA en el aula “ha de tener un sentido pedagógico” cuyo fin sea convertir la IA en “un motor del pensamiento crítico”.

Soriano Sánchez explica que esto requiere un modelo que obligue al estudiante a reflexionar sobre la interacción con la IA, a buscar evidencias, dudar de los resultados y contrastar fuentes. En esencia, se requiere “una apuesta por la argumentación y la comprobación”. Solo así, afirma, se logrará un modelo donde, con la IA como herramienta, el pensamiento crítico “vertebre las decisiones de nuestros estudiantes y ciudadanos futuros”. Para alcanzar este objetivo, concluye, es indispensable contar con “docentes que acompañen, guíen este proceso de aprendizaje” en la interacción con las plataformas de IA.

En cuanto a las políticas e inversiones necesarias para una implementación equitativa y efectiva de la IA a nivel nacional o regional, la coordinadora fue categórica: lo primero es “sencillamente, no hacer de la Educación un arma política”.

La experta de la UNIR demanda un consenso y “leyes educativas que duren más de 6— 8 años”. Tras esta estabilidad legislativa, considera imprescindible un “verdadero plan de formación docente, educativa y ciudadana”, con un plan de acción específico para cada agente de la comunidad.

Además, Soriano Sánchez detalla las necesidades normativas: se precisa legislación, “guías de uso prácticas” para la implementación en las aulas, y la creación de “comités de ética donde se revisen los posibles desacuerdos o problemas por el uso incorrecto”.

  • Integridad académica y suplantación: El temor de que los estudiantes utilicen la IA para “hacer trampas” es generalizado entre los docentes. En una encuesta de Virtual Educa (marzo 2025), el 87 % de los docentes manifestó que cree que sus alumnos pueden estar usando IA para suplantar trabajos académicos. Sólo el 3 % considera que las herramientas actuales respetan de manera adecuada la propiedad intelectual de los docentes.

Además, un estudio internacional titulado Student Perspectives on the Benefits and Risks of AI in Education (2025) con 262 estudiantes de universidad en EEUU identificó que entre sus principales preocupaciones están la integridad académica, la fiabilidad de los resultados generados por IA, la pérdida de pensamiento crítico y el riesgo de dependencia.

Una revisión sistemática titulada Practical and Ethical Challenges of Large Language Models in Education (2023) destaca otros riesgos recurrentes: falta de transparencia, sesgos algorítmicos, problemas de privacidad y baja reproducibilidad en soluciones educativas basadas en IA.

En este punto, la psicóloga también advierte sobre los efectos colaterales de una integración tecnológica sin control humano, apuntando a un doble riesgo que afecta la capacidad de los jóvenes para pensar por sí mismos y gestionar sus emociones.

Uno de los mayores peligros que observa es “la pérdida del pensamiento crítico y la dependencia emocional de la inmediatez”. Al poder resolver todo con un solo clic, existe el riesgo de que los jóvenes dejen de “cuestionarse, de dudar o de confiar en su propio criterio”. A largo plazo, Yolanda Romero teme que esto pueda desencadenar “ansiedad, baja tolerancia al error y sensación de insuficiencia frente a sistemas «perfectos».

  • Falta de formación docente: Un obstáculo casi universal para una integración efectiva es que muchos docentes no han recibido formación adecuada. En EEUU, el informe de Microsoft señala que, aunque el uso de IA se ha disparado, cerca de un tercio de los docentes no confía en usarla de forma responsable o efectiva.

En España, el estudio Empantallados / GAD3 pone en evidencia que los docentes demandan programas estructurados de capacitación en IA, no meramente tutoriales informales.

Experiencias punteras: donde la IA ya pisa fuerte

Mientras la discusión sobre la Inteligencia Artificial se centra a menudo en la ética y la regulación, la realidad es que esta tecnología ya está transformando proyectos concretos en los centros españoles, demostrando su potencial práctico. Aunque en muchas escuelas la IA sigue siendo incipiente, hay iniciativas que han abierto camino.

  • Del acoso escolar a la evaluación 4.0: Uno de los usos más prometedores se encuentra en la esfera social. Varios colegios en Madrid, Asturias y el País Vasco han sido pioneros en la aplicación de un sistema de IA de IBM cuyo objetivo es la prevención del acoso escolar. En lugar de ver a la IA como una distracción, estos centros la utilizan como un aliado silencioso para “mejorar la convivencia”, según reportajes sobre la iniciativa, ofreciendo una herramienta discreta pero potente contra el bullying.

En el ámbito puramente académico, la innovación se centra en la personalización. El proyecto Evaluación 4.0, con la participación de diez centros educativos piloto y el aval del IIIA-CSIC, está desarrollando tecnología IA para hacer la evaluación educativa más “eficiente” y “equitativa”. La IA se convierte aquí en un recurso de fondo, diseñado para garantizar que los procesos de aprendizaje se adapten mejor a las necesidades individuales.

  • La IA como motor del pensamiento computacional: La introducción de la IA no siempre requiere pantallas. El Colegio Juan Pablo II de Parla (Madrid) ha optado por un enfoque que obliga al alumno a comprender la tecnología desde sus cimientos. Tal y como explican sus coordinadores, allí se enseña a los estudiantes a “crear su propia IA” y a desarrollar el pensamiento computacional sin la necesidad de dispositivos móviles en el aula, redefiniendo la educación digital.

Por otro lado, la Comunidad de Madrid, a través de colaboraciones con gigantes tecnológicos, impulsa la adaptación curricular. La IA se utiliza para que las clases se ajusten al “nivel individual de cada alumno”, pasando de un modelo de talla única a uno diseñado a medida. Incluso los proyectos más creativos e históricos se benefician de esta tecnología: un docente español demostró el valor de la IA generativa con el proyecto “Cartas desde las Trincheras” en el IEI Giner de los Ríos. Los alumnos utilizaron chatbots basados en IA para simular conversaciones con soldados de la Primera Guerra Mundial, demostrando que esta tecnología puede ser una vía poderosa para la “empatía y el pensamiento crítico” en asignaturas de Historia.

  • Personalización que eleva el rendimiento: Un claro ejemplo de aplicación con resultados tangibles se encuentra en el sector privado. El King’s College Soto de Viñuelas (Madrid) ha implementado la herramienta Inspired AI para personalizar los contenidos y el apoyo en clase. El centro ha reportado que esta medida se ha traducido en un aumento de “un punto el rendimiento gracias a la inteligencia artificial”. Ante estos resultados, el colegio planea expandir su uso a otros cursos, estableciendo un modelo de referencia en la optimización del rendimiento académico.
  • Proyectos Piloto: La introducción de la IA no se limita a las grandes instituciones o a la enseñanza secundaria. La Fundación Hiberus, en Zaragoza, ha impulsado el programa extraescolar Menudos Techies, cuyo objetivo es introducir a alumnos de 5.º y 6.º de Primaria en proyectos de IA relacionados con el arte, los videojuegos, la robótica y la accesibilidad. Tras ser un éxito piloto en colegios zaragozanos, el proyecto se amplía ahora a más de 20 centros a nivel nacional. Este tipo de iniciativas son cruciales como casos “preparatorios”, asegurando que la próxima generación se familiarice con la IA desde edades tempranas.

Además, varios colegios en España exploraron la aplicación WatsomApp (desarrollada por IBM en 2019). Esta herramienta utilizaba IA para mejorar la convivencia en las aulas a través de la detección de conflictos y la dinamización, mostrando una exploración temprana del potencial de la IA en el espacio social.

  • La integración institucional: El compromiso más amplio llega desde las administraciones. En septiembre de 2024, la Comunidad de Madrid renovó su colaboración con Google para que los colegios públicos utilicen herramientas de IA que permiten la adaptación curricular. El objetivo es claro: conseguir que los ejercicios y las lecciones se ajusten automáticamente al nivel de cada alumno, proporcionando una experiencia de aprendizaje totalmente individualizada. Este movimiento indica que la red pública madrileña está planificando una integración institucional de la IA a gran escala.
  • Tendencias en la educación superior y global: Mientras la educación obligatoria muestra ejemplos concretos, la implementación de la IA en el ámbito universitario español es aún incipiente. El Informe EDUTEC sobre Inteligencia Artificial y Educación documenta que la mayoría de estas experiencias en enseñanza superior surgen de iniciativas personales o proyectos piloto en centros, usando la IA principalmente para generar preguntas tipo test, apoyar en tutorías o colaborar en la docencia.

Esta cautela contrasta con las tendencias internacionales. Fuera de España, la California State University en EEUU ha desplegado una versión educativa de ChatGPT (ChatGPT Edu) para estudiantes y profesores con el objetivo de ofrecer tutoría personalizada y aliviar tareas administrativas (Reuters, febrero 2025). De igual modo, grandes proveedores corporativos están lanzando sus propios pilotos: Microsoft anunció recientemente funciones de retroalimentación asistida por IA en la plataforma Microsoft 365 Copilot, pensadas para facilitar la corrección de trabajos y la feedback en clase.

Estos casos pioneros, tanto nacionales como globales, no solo muestran la viabilidad técnica, sino que permiten recoger lecciones cruciales sobre aceptación, obstáculos y buenas prácticas antes de una implantación masiva. En última instancia, estos ejemplos confirman que, más allá de los debates teóricos, la Inteligencia Artificial ya está moldeando una nueva realidad pedagógica en España y el mundo.

¿Hacia dónde vamos?

El curso 2025-26 marca un punto de inflexión: la IA ya no es una promesa remota, sino una realidad palpable. Ahora la pregunta decisiva es cómo manejar esa realidad para que beneficie equitativamente a todos los centros y estudiantes.

Para que la IA cumpla su promesa educativa, hacen falta al menos tres condiciones:

  1. Formación docente estructurada: no basta con tutoriales ocasionales; el profesorado necesita competencias sólidas en alfabetización de IA, ética y diseño pedagógico con IA.
  2. Políticas de equidad digital: garantizar que todos los centros y estudiantes tengan acceso a dispositivos, conectividad y soporte técnico.
  3. Regulación ética y transparencia: normas claras para proteger la privacidad, evitar sesgos, preservar integridad académica y exigir que los sistemas expliquen sus decisiones.

Si esas condiciones se cumplen, la IA puede abrir caminos hacia una enseñanza más personalizada, un aprendizaje con retroalimentación inmediata, un aula más inclusiva y una alfabetización crítica para la sociedad del futuro. Pero sin ellas, el riesgo es que la IA amplifique desigualdades y erosione valores educativos fundamentales.

Respecto al uso de la IA para personalizar el aprendizaje, Romero lo ve viable “solo si se hace con una mirada inclusiva y humana”. La tecnología puede ayudar a adaptar contenidos, pero si se utiliza sin un contexto emocional, advierte que podría “reforzar etiquetas invisibles”. El propósito fundamental de la personalización tecnológica debe ser “entender mejor al alumno, no para clasificarlo”. La psicóloga insiste en que cualquier herramienta de IA debe ser un apoyo. “La personalización debe complementar la observación del docente y del psicólogo, no sustituirla,” sostiene Romero.

Asimismo, la especialista enumera las tareas que un algoritmo jamás podrá desempeñar, todas aquellas que “requieren empatía, juicio ético y vínculo”. Decisiones cruciales como cuándo un niño necesita una pausa, cómo gestionar un conflicto o cómo acompañar un error permanecen fuera del alcance de la programación. Romero enfatiza que “la disciplina y la autonomía se aprenden en relación, no desde una programación”.

Contact