Publicado: 3 julio 2025 a las 12:00 am
Categorías: Artículos
Por Educación 3.0
Entre otros aspectos, la legislación prohíbe que las decisiones académicas relevantes se tomen de forma totalmente automatizada, obliga a que el profesorado supervise los contenidos generados por la IA y exige verificar qué datos personales se procesan y dónde se almacenan.

El 47% de los centros educativos en España ya ha implementado tecnologías basadas en la IA, según un informe de GoStudent de este año. Otro estudio, en este caso elaborado por la plataforma Empantallados y la consultora GAD3, indica que el 73% del profesorado ha utilizado herramientas de IA en el aula; una cifra que asciende al 82% en el caso de los estudiantes.
En este contexto se hace más necesaria que nunca la Ley de la IA de la Unión Europea (AI Act) aprobada en 2024, que establece un marco legal para el uso seguro y ético de la inteligencia artificial. A ella se sumará en los próximos meses la Ley para el buen uso y la gobernanza de la IA española, que incluirá medidas específicas para nuestro contexto, con especial atención a la infancia y la educación.
¿Cómo afecta en estos momentos la legislación europea a los centros de nuestro país?¿Qué medidas se deben implementar para garantizar la protección de los datos del alumnado?
Aunque muchas plataformas ya ofrecen la corrección automática de tests, exámenes o trabajos mediante IA, la Ley de Inteligencia Artificial de la Unión Europea clasifica esta tarea como de ‘alto riesgo’ si pueden tener un impacto significativo en el futuro de los estudiantes; un grupo al que pertenecen aquellos sistemas que afectan directamente a su formación, evaluación o comportamiento. Por este motivo, los centros educativos deben garantizar que se utilizan con supervisión humana, transparencia, evaluación de impacto y cumplimiento estricto de la normativa de protección de datos.

La IA puede generar contenidos educativos adaptados al nivel o intereses del alumnado, pero también conlleva riesgos si los algoritmos refuerzan estereotipos o excluyen determinados perfiles culturales o sociales. En este sentido, la legaltech Atico34, especialista en protección de datos y asesoramiento en IA, señala: “Los centros deben supervisar estos contenidos para evitar sesgos o discriminaciones, garantizar diversidad curricular y asegurar que el profesorado tenga control sobre la planificación educativa”.
Indica que los sistemas deben ser auditables y garantizar la ausencia de sesgos discriminatorios, ofreciendo explicaciones claras sobre cómo se ha generado un contenido o decisión.
Muchos sistemas de IA necesitan recopilar datos del alumnado: notas, hábitos de estudio, tiempo de respuesta, etc. Si se trata de menores, la legislación refuerza las exigencias de protección de datos y la Agencia Española de Protección de Datos (AEPD) es clara a este respecto: “Cuando la recogida y el tratamiento de datos de menores responda al consentimiento, hay que tener en cuenta que deberá ser expreso y que cuando se trate de menores de 14 años lo han de prestar sus padres o tutores”.
Los centros no pueden emplear sistemas de IA que recojan datos personales sin una base legal clara. Deben contar con el consentimiento explícito de las familias: aplicar medidas de seguridad reforzadas y usar herramientas que cumplan con la normativa de protección de datos.

Algunas plataformas de ‘proctoring’ o vigilancia remota utilizan la IA para detectar si un estudiante copia en un examen online. Otras incluso incluyen reconocimiento facial o análisis de comportamiento.
La IA con biometría (como la cara o la voz) está prácticamente prohibida en educación, salvo excepciones muy justificadas. Se considera una invasión de la privacidad y una medida desproporcionada, sobre todo si se aplica a menores.
Muchos centros ya disponen de asistentes virtuales basados en IA para responder dudas, organizar tareas o acompañar el aprendizaje. Son herramientas útiles, pero es importante que el alumnado sepa que están interactuando con una máquina. “Los asistentes educativos con IA son programas que interactúan con el alumnado para resolver dudas o apoyar el aprendizaje. Pueden ser muy útiles, pero los centros educativos están obligados a identificarlos claramente como IA, supervisar sus respuestas, y asegurar que respetan la privacidad y el nivel educativo adecuado”, matizan los abogados de Atico34.
Todo sistema de IA conversacional debe identificarse claramente como tal. Además, cuando se dirige a menores, debe estar diseñado con especial cuidado para no generar dependencia ni confusión.
Algunos sistemas educativos aplican la IA para analizar el rendimiento académico y predecir futuros resultados. Sin embargo, tomar decisiones importantes (como repetir curso o pasar a un programa especial) en base únicamente a algoritmos está prohibido.
Las decisiones automatizadas deben contar siempre con una supervisión humana, posibilidad de revisión y derecho a recibir una explicación.
Muchas herramientas que hay en el aula incluyen funciones de IA sin que siempre se advierta: desde apps para aprender idiomas hasta plataformas de evaluación o comunicación con familias.
Los centros educativos son responsables de garantizar que las tecnologías que contratan cumplen la normativa sobre protección de datos y uso ético de la IA.
Las herramientas de inteligencia artificial son de gran ayuda en el contexto educativo, pero siempre y cuando se adopten conforme a la normativa vigente, en concreto, a las leyes sobre IA y protección de datos. Y dado que los centros tratan con información relativa a menores, la protección de sus datos personales cobra especial importancia al tratarse de un grupo de población especialmente vulnerable.
En este contexto, conviene recomendar la ayuda de especialistas en protección de datos y asesoría en inteligencia artificial, tanto para la elaboración de auditorías o evaluaciones de impacto previas, como para la aplicación de las medidas concretas que permitan un uso seguro de la IA en el aula.
Fuente: https://www.educaciontrespuntocero.com/noticias/ley-de-la-ia-en-centros/
Deja un comentario