El tema de la inteligencia artificial (IA), especialmente su promoción y uso en las aulas de etapas obligatorias, es algo que me preocupa. He escrito desde agosto, aunque ya estaba leyendo cosillas desde hacía años, algunos artículos sobre el tema y, por desgracia, conforme pasa el tiempo voy cuestionándome más y más cosas.
Por cierto, permitidme un inciso y que os comenté, ya haciendo un poco de memoria, cuál fue la primer lectura que realicé acerca del tema. Pues fue en los 2000, cuando todavía era joven (bueno, más joven que ahora) y leí el libro «Principios de Inteligencia Artificial» escrito por Nils J. Nilsson. Un libro, por cierto, que todavía tengo en casa (no lo he perdido en las mudanzas) y que mostraba el funcionamiento de esa inteligencia artificial que ahora nos han vendido con productos «que nos lo hacen todo», con «expertos que solo saben usar chatGPT» y con un planteamiento técnico que deberían saber todos aquellos que quieran dar lecciones acerca de cómo usar determinadas herramientas. Las tripas de la inteligencia artificial son importantes. Eso y la ética que subyace tras su uso.
Retomo el primer párrafo. Esto no está escrito con inteligencia artificial y ello hace que, por desgracia para los que os pasáis por aquí, sea bastante incoherente todo lo que escribo. Y lo retomo enlazándoos los artículos que llevo escritos en este blog sobre el tema.
-
Modelo de protocolo del uso de la inteligencia artificial (IA) en los centros educativos (agosto 2023).
- Dar cuatro instrucciones no es ser experto en inteligencia artificial (octubre 2023).
- Algunas reflexiones acerca del uso de la inteligencia artificial en el ámbito educativo (noviembre 2023).
- ¿Debería haber un equipo de trabajo de inteligencia artificial en la administración educativa? (noviembre 2023).
Lo digo para que entendáis que, a pesar de lo que vais a leer a continuación, no soy de las personas que estén en contra de la incorporación de determinadas herramientas en las aulas. Y que creo que, como toda tecnología emergente que aparece, se debería analizar qué sentido tiene la misma, si debe realizarse algún sistema de protección al alumnado de la misma o, simplemente, si se deben modificar ciertas prácticas. Por eso, como ya dije en su momento, me parece perfecto que haya equipos de trabajo acerca de esto en las diferentes administraciones y que se intente parametrizar su introducción (en caso de considerarse necesaria).
El problema es que se está haciendo mal. Se está haciendo muy mal. Ayer, sin ir más lejos, el Departament d’Educació catalán sacó unas «recomendaciones y orientaciones para el uso de la IA en los centros educativos» (enlace) y, por desgracia, publicaron cosas muy surrealistas en la misma, al igual de obviar, como está sucediendo en los últimos tiempos, toda la parte ética del asunto. Estoy seguro de la buena intención en su realización. También estoy convencido de que algunos de los que están tras la misma son excelentes profesionales y tienen un perfil técnico adecuado para poder hablar, con cierto bagaje, de la inteligencia artificial pero,…, sí, hay un pero muy importante. O más bien varios.
Lo primero que encuentro a faltar en esta guía y en los debates acerca del uso de la IA en educación (especialmente en etapas obligatorias) es lo que hace referencia a la necesidad de prohibir, tal y como recomienda la Agencia Española de Protección de Datos (AEPD) y las diferentes normativas, el uso de determinadas herramientas. En las aulas no se pueden usar herramientas cuyos datos se intercambien fuera del Espacio Europeo. No lo digo yo, lo dice la normativa. Y eso es algo que se obvia. Si incluso en la guía que os he enlazado antes ponen textualmente, antes de las aplicaciones que recomiendan, «que se debe ser consciente del riesgo de dar estos datos a una empresa». No es que haya de ser consciente de lo anterior. Es que está prohibido dar determinados datos, especialmente en el ámbito educativo, a una empresa si la misma no cumple la normativa acerca de protección de datos. No se puede obviar lo anterior al escribir una guía para docentes. Es algo clave.
Es clave lo anterior y es clave el preguntarse para qué es necesario el uso de la IA en etapas obligatorias. ¿Es necesario revisar textos con IA? ¿Es necesario pasar de dibujar a pedirle a una herramienta que, plagiando imágenes de internet, dibuje algo por vosotros? ¿Mejor la creatividad el uso de la IA? ¿Sabéis cómo ha sido entrenada la herramienta que estáis usando? ¿Sabéis que muchas herramientas de dibujo con IA, especialmente en las que aparecen niños, han sido entrenadas con pornografía infantil? ¿Es necesario pedir resúmenes a una IA? ¿Hasta qué punto es necesario, también y como plantean en la guía, crear música usando una IA? ¿De verdad no os dais cuenta de lo absurdo de lo anterior, sin entrar en cuestiones de ética, en etapas educativas obligatorias?
Cuando veo a docentes publicando los dibujos tan bonitos que han hecho sus alumnos usando la IA, no puedo menos que preocuparme. ¿Qué les estamos enseñando? ¿Qué aprendizajes les estamos sustrayendo? ¿Qué parte de la creatividad y del pensamiento crítico les estamos robando? ¿Cuál es el sentido educativo de lo anterior? ¿Hay sentido educativo o es, simplemente, usar la última herramienta que ha llegado a nuestras manos?
En las Universidades ya están empezando a llegar, a chorro, artículos, trabajos y tesis realizadas con IA. Una IA generativa, tal y como las que se está usando, tiene sus utilidades pero, lo que no tiene es la capacidad de encontrar datos que no tiene disponibles para usar o de experimentos que todavía no se han realizado. Y repito, yo sí que veo la utilidad de este tipo de herramientas para hacer un cribado de información y poder acceder a determinada información, más estructurada, que nos permita ampliar nuestros conocimientos. Algo que solo puede hacerse si uno tiene conocimientos previos. Al igual que los proyectos. Cosas sin sentido, con demasiadas contraindicaciones, en determinadas etapas del aprendizaje.
Sé que hubiera sido de los innovadores y encumbrado al altar de la pedagogía IA si hubiera apostado en este artículo por su uso indiscriminado en las aulas. Sé que escribir un artículo acerca de las «10 herramientas de IA que van a revolucionar la educación», además escrito por chatGPT, lo hubiera llevado a una viralización extrema. El problema es que, por desgracia, conforme más leo, menos entiendo la necesidad de apostar por el uso de la IA en etapas educativas obligatorias. Otra cuestión que siempre voy a defender y que no va reñido con lo anterior, es la necesidad de que el alumnado conozca que es la IA, sus peligros, una noción básica y rudimentaria de los algoritmos que subyacen tras lo anterior y una visión ética del asunto. Hacer un producto final con IA, al igual que hacer una fotocopia de un libro de texto, es robar. Da igual las vueltas que le demos al asunto.
La imagen que ilustra este artículo ha sido realizada con inteligencia artificial. Para hacerla ha tenido que haber alguien en el pasado que, de forma creativa, haya publicado alguna de las imágenes que se han usado en la composición, en internet. Pensad un poco acerca de ello. Y analizad qué consecuencias puede tener el uso indiscriminado y sin control de esta IA. E insisto, se trata de una herramienta muy potente que, para determinados usos en algunos ámbitos, puede tener múltiples beneficios.
Os recuerdo que tenéis la posibilidad descargaros mis libros en formato digital, a partir de cero euros, desde el botón de arriba. Y que, tanto donando en los tres libros que llevo escritos una cantidad, como haciéndoos con el ebook recopilatorio de los artículos publicados de 2023 (en este caso no es posible la descarga gratuita), ayudáis a mantener este blog y otros proyectos que, seguramente, perpetraré este año. También os informo que tenéis un canal de WhatsApp (aquí), en el cual no compartís ningún dato personal (no, no se comparte vuestro número teléfono, ni tampoco vais a ver el mío), en el que podéis recibir todos los artículos que estoy publicando.
Descubre más desde XarxaTIC
Suscríbete y recibe las últimas entradas en tu correo electrónico.
Enseñar a usar la inteligencia artificial tiene el mismo sentido que cuando comenzamos a enseñar redes sociales, Internet…
Sabemos que nuestros alumnos lo van a usar, con o sin nuestra ayuda, así que es responsabilidad nuestra y de las familias mostrarles como utilizarlo de forma responsable, y que lo vean como lo que es, una herramienta para determinadas tareas.
Hay que poner normas, usar solo aquellas que ofrecen las garantías necesarias, y establecer unos términos de uso muy claros. La discusión en el aula sobre los aspectos éticos es imprescindible.
Y siempre es mejor que desde el centro tomemos medidas preventivas para no tener que tomarlas paliativas.
Lo que es un sinsentido es ignorar está realidad. Ya ha habido y hay muchos niños que han sufrido porque ni familia ni profesores les han enseñado a usar y controlar determinadas herramientas.
Por favor, no repitamos errores del pasado.
¿Es responsabilidad nuestra enseñar a mezclar las bebidas energéticas con el alcohol de moda? ¿Es responsabilidad nuestra enseñar a besar? ¿Es responsabilidad nuestra enseñar a liar tabaco? Porque, siguiendo el mismo argumento, total lo van a usar con o sin nuestra ayuda. Esto no funciona así. Por cierto, yo sí que creo en que debemos enseñar unos valores éticos que, tanto pueden servir para la inteligencia artificial, como para otras cosas. Y ojo, estoy hablando de valores éticos y no de valores morales que, por cierto, no vienen a ser lo mismo.
Es que, como bien sabemos, la culpa de las adicciones es que el profesorado no enseñó a «drogarse» bien o de forma segura. Lo siento. No lo compro. Otro tema es que, dentro de nuestras funciones, también haya una parte educativa. Una parte más o menos importante según el perfil del alumnado pero, sin olvidar cuál es nuestra función principal y cómo debemos enfocarla para beneficiar a los que tenemos delante y dar confianza a los que nos dejan lo más preciado durante unas horas.
No seré jo qui defensi el document perquè hi he treballat i no sóc objectiu No n’he estat el darrer responsable (ni molt menys) i, per tant, jo també faria alguna modificació.
Però el document sí crec que diu textualment algunes coses en la línia del que demanes.
«Per tant, és molt important no proveir mai dades personals reals als sistemes d’IA, com per exemple el nom complet, el lloc de residència, les dades de salut, etc., que eventualment es podrien afegir a una base de dades d’una organització externa a l’entorn educatiu»
«L’important en l’ús de tecnologies a l’aula, sigui IA o altres tecnologies, és l’objectiu d’aprenentatge, en què cal respectar els drets i les llibertats de les persones. Primer, cal determinar què ha d’aprendre l’alumnat i després decidir si la tecnologia hi ajuda. A vegades, aquesta ajuda serà simplement per fer activitats diferents de les habituals, cosa que pot provocar més motivació. Altres vegades es detecta que la tecnologia permet establir relacions que, de no tenir-la, serien complicades d’aconseguir. Però també pot ser que la tecnologia no tingui cap efecte, cas en què serà millor no introduir-la.»
Hola Jaume, malauradament el document diu el que diu i, per desgràcia, incentiva a la utilització de determinades eines que no fomenten el que s’hauria de fomentar en l’ensenyament obligatori. La utilització d’eines gràfiques, que cerquen i manipulen la creativitat de tercers, per a obtenir un producte sense esforç, és un atemptat a la creativitat dels nostres alumnes. El mateix en el cas de la creació de música o revisió de textos mitjançant IA. Una altra qüestió és que, en entorns empresarials, tingui el seu sentit i que, tal i com he dit en l’article, sigui necessari conèixer en què consisteix la IA i establir una formació ètica en l’alumnat en el seu ús.
També em resulta paradigmàtic que no s’incideixi més en recordar que quasi totes les eines d’IA atempten contra el que recomana l’Agència de Protecció de Dades per trobar-se les dades fóra de l’espai europeu. I això és quelcom que s’ha de tenir en compte. La barra lliure a educació s’hauria de començar a regular.
I tota la raó amb la necessitat de saber per a què introduir certes coses a l’educació. Per això he dit que es notava la intervenció en el redactat de persones coneixedores del tema amb una capacitació per a parlar del mateix.
Jo, usuari -el frikisme em pot- i coneixedor de moltes eines d’IA a més dels algoritmes que es troben darrere la seva creació (no els algoritmes de chatGPT, però sí els rudiments matemàtics en els quals es basa), segueixo tenint molts dubtes en la necessitat i foment de la utilització d’aquest tipus d’eines en l’ensenyament obligatori perquè, com he plantejat, hi ha qüestions molt importants a contestar abans.
Salutacions i, com ja saps, un gran reconeixement per tota le feina que portes molts anys fent i que segueixo atentament. Això sí, et prometo que sense enviar-te detectius. 😉