Ayer estuve en un lugar en el que se habló de inteligencia artificial (IA). Un lugar que me trae muy gratos recuerdos. Siempre me he sentido como en casa en las ocasiones en las que he visitado esa maravillosa localidad. Y ya sabéis, especialmente los que me conocéis, que hay que hacer muy poco para darme ideas para escribir. Muy poco. Así pues, supongo que os imaginaréis de qué va el artículo de hoy. Sí, de nuevo voy a entrar a hablar de la IA. Y no porque quiera que me lean más personas o conseguir, en las redes sociales, un mayor número de «me gusta». Simplemente porque estoy convencido de que en el ámbito educativo podemos, desde la irrupción de la IA, hacer las cosas bien o cargarnos la educación.
Por cierto, no solo nos podemos cargar la educación. Lo podemos hacer en un tiempo récord. Mucho más rápido que con las pizarras digitales, los MOOC, las competencias del siglo XXI o cualquier otra moda educativa pasada por el túrmix del marketing pedagógico. Así pues, dejadme escribir (¡no tenéis opción, es mi blog!) una recopilación, no exhaustiva (ni falta que hace), de los 10 errores más comunes al incorporar IA en las aulas. Si los evitamos, igual hasta hacemos algo útil. Si no… pues nada, otra oportunidad perdida.
El primer error es confundir innovación con postureo. Le ponemos «IA» a cualquier cosa y ya tenemos subvención, ponencia en congreso y mesa redonda asegurada. Que luego sirva para algo es secundario. ¿Que un algoritmo genera exámenes? Brutal. ¿Que esos exámenes son absurdos y desconectados de la realidad? Detalles menores.
Hay quien ya pregunta más a ChatGPT que a su alumnado. Y no hablo solo del alumnado. Nos estamos creyendo que la IA sabe más que nosotros. No sabe más. Solo lo disimula mejor. A veces se inventa respuestas con una seguridad digna de tertuliano televisivo. Por eso, ceder la autorictas al algoritmo es algo que me preocupa.
También podemos usar la IA como excusa para no cambiar nada. Automatizamos lo de siempre y nos damos palmaditas en la espalda. La IA no es transformación, es repetición acelerada si no se usa con cabeza. Evaluaciones masivas, correcciones instantáneas, informes automáticos. A lo mejor el problema no es la falta de tecnología. A lo mejor el problema es que le estamos pidiendo a la IA un menú a base de Burger King.
Ya no entro en los que fingen que el alumnado no va a hacer trampas. Prohibido usar ChatGPT. Claro, y también prohibimos copiar en los exámenes y mira qué bien nos fue. La IA no es la causa del fraude académico, es el espejo donde se refleja una evaluación que ya no tiene sentido. Cambia cómo evalúas y lo de hacer trampas se convierte en irrelevante. Es el momento para volver quizás, aunque algunos lo denosten, a un modelo de exámenes presenciales escritos y orales, prescindiendo de todo lo que se puede entregar o hacer fuera del aula. Eso sí, permitidme un matiz. No estoy diciendo que las tareas para casa deban desaparecer. Debe desaparecer, quizás, la necesidad de calificar esas tareas.
¿Y qué pasa con los que creen que todo debe incluir en el ámbito educativo la IA? ¿Leemos un poema? Ponle IA. ¿Resolvemos un problema de mates? Con IA, por favor. ¿Educación física? Que nos corrija la postura un algoritmo. Y así, hasta sustituir el sentido común por un modelo predictivo. Porque nada dice «buen docente» como una app que te mide la atención del alumnado.
Ignorar la formación docente también es liarla parda. Total, si ya sabemos usar el móvil, ¿qué más da? Formación para qué, si podemos hacer clic en cuatro botones y que nos corrija los deberes. Hasta que un día la IA dice que un texto sobre El Quijote es ofensivo y nadie sabe desactivarlo. Lo de formar a quienes deben usar una herramienta no se lleva. Es de perdedores.
¿Usarla para vigilar en lugar de educar? La IA puede detectar emociones, medir cuánto se mueve un niño en clase o si su tono de voz indica distracción. ¿Y si en lugar de espiarlo… hablamos con él? Digo yo. Por proponer algo radical. Pero no, mejor que lo detecte una máquina y nos mande un informe por correo.
La memoria, especialmente la mía, está en horas muy bajas. Puedo llegar a olvidar que los algoritmos tienen sesgo. La IA aprende de datos. Y los datos, amigachos del blog, no son neutros. Que no nos sorprenda si la IA refuerza desigualdades, discrimina a quien no entra en su patrón o invisibiliza a quien no está representado. ¿La culpa? De nadie. Lo ha dicho el algoritmo.
Start-ups que venden milagros, CEOs que no han pisado un aula desde 4º de Primaria y promesas de personalización total del aprendizaje (como si eso fuera algo bueno). Y nosotros, abriendo las puertas de par en par. A veces, lo difícil no es que entren, sino que no los echemos a empujones.
Y, finalmente, si nos negamos a hablar de ética en su implantación, nos estamos dejando una parte muy fundamental. La IA lo puede todo… menos pensar en las consecuencias. Eso, en teoría, lo hacemos nosotros. Pero claro, si lo importante es la eficiencia, la productividad y el rendimiento, la ética molesta. Hablar de humanidad, de vínculos, de desigualdades… eso no cabe en una hoja de cálculo.
Quizá, solo quizá, antes de meterla hasta en la sopa educativa, podríamos pararnos a pensar para qué, cómo y con quién. Pero eso exige tiempo, reflexión y, sobre todo, resistirse a la moda. Y claro, eso no da tantos likes como da un artículo en el que mencione las recetas para usarla.
Dedico este post a una sonrisa. Una de las más bonitas que he visto en mi vida. Una de las que, al final, valen muchísimo la pena y que no pueden sustituirse por una imagen generada por IA.
Descubre más desde XarxaTIC
Suscríbete y recibe las últimas entradas en tu correo electrónico.