Llevo semanas dándole vueltas a un tema que, por más que se quiera ignorar, está ya aquí. La inteligencia artificial, concretamente herramientas como ChatGPT, ha llegado para quedarse. Pero no solo en las aulas o en las redacciones de alumnado de secundaria… también en el olimpo de la academia. Y es precisamente en las tesis doctorales donde su potencial (y sus peligros) se manifiestan de manera más cruda.
He cogido al azar dos tesis doctorales de un par de pedagogos, muy conocidos en las redes sociales, para revisar. Ambas escritas hace unos años, mucho antes de que la IA irrumpiera como un actor más en el proceso de escritura académica. Me propuse hacer un experimento. Pasé esas tesis por ChatGPT, no para reescribirlas, sino para analizar su estructura, claridad argumentativa y coherencia interna. El resultado fue demoledor.
La IA fue implacable. En ambas tesis señaló inconsistencias lógicas, lagunas bibliográficas y una tendencia alarmante al relleno innecesario. Una de ellas incluso presentaba un marco teórico inflado hasta el infinito, donde se citaba por citar, sin que hubiera una verdadera articulación de ideas. La otra, más ambiciosa metodológicamente, caía en una dispersión que impedía seguir un hilo conductor claro. Lo preocupante no fue que ChatGPT las «criticara», sino que sus observaciones eran totalmente certeras. Observaciones como las siguientes…
Tesis A…


Tesis B…

Y aquí viene lo incómodo. Esas tesis pasaron los filtros académicos. Tribunales enteros dieron el visto bueno a trabajos que, puestos bajo la lupa de una IA, muestran deficiencias que deberían haber sido inaceptables. El problema, claro, no es solo de los doctorandos. Es de un sistema que muchas veces privilegia el volumen sobre la calidad, lo formal sobre lo significativo.
Entonces, ¿es la IA una amenaza o una oportunidad? Pues depende de cómo la usemos. Imaginaos un proceso de redacción doctoral en el que la IA actúe como copiloto, sugiriendo estructuras lógicas, detectando contradicciones, proponiendo articulaciones más coherentes entre teoría y metodología. Imaginaos un modelo en el que el director de tesis pueda centrarse más en el fondo porque la forma ya ha sido optimizada previamente por una máquina.
Pero también imaginemos el otro escenario. El de tesis generadas casi por completo por IA, con un barniz humano superficial, y presentadas como producto original. Un espejismo de erudición que vacía de sentido lo que significa investigar. Esa es la línea roja.
La IA no va a desaparecer. Y seguir ignorándola o demonizándola solo logrará que se use de forma opaca. Es hora de que (no solo) la Universidad se mire en el espejo, y empiece a diseñar protocolos claros que reconozcan lo que la tecnología puede aportar… pero también lo que nunca debe sustituir.
Porque, al final, una tesis doctoral no debería ser solo un artefacto textual un número de páginas. Debería ser una aventura intelectual. Y de eso, ni la mejor IA del mundo sabe todavía demasiado.
Lo importante es poder, como llevo diciendo en los últimos días, automatizar lo automatizable y facilitar el trabajo. Sin perder, en ningún caso, la necesaria capacidad intelectual de las personas que la usen.
Descubre más desde XarxaTIC
Suscríbete y recibe las últimas entradas en tu correo electrónico.
9 comments
Me gustaría saber hacer el Cómo ha podido usted hallar semejantes fallos en esas tesis. ¿Como se trabaja con la iA para descubrir esos trabajos «mediocres» por decir algo ..muchas gracias Maestro.
Buenas Tardes.
Excelente Artículo.
No obstante lo expresado, demonizo a la IA, si bien debo aceptar que vino para Quedarse.
Gracias.
Existe bastante bibliografía acerca de la creatividad y la IA. Una investigadora ya clásica del tema es Margaret Boden. Pero desde luego, lo que hacen los modelos LLM, aún siendo en muchos casos espectacular y útil, no es para nada algo que tenga que ver con la creatividad. Son loros estocásticos.
El problema no es la IA, más bien es la IH – imbecilidad humana, capaz de hacernos creer que un hype de libro como lo son los modelos LLM va a ser la solución a todos los males de la humanidad .
Y tu experimento con esas tesis doctorales sería bastante extensible, me temo, a otras áreas, digamos bastante del área de educación ( no voy a perder mi tiempo en ello, pero se me ocurre la maldad de buscarle tres pies al gato en los «métodos cualitativos») y en ciencias sociales ( Sokal aumentado, vaya) y buena parte de ciencias de la salud y bio, que ahí sí que me consta que hay metaestudios que afirman la irreptoducibilidad de experimentos y resultados. Y algunas de ciencias puras y tecnologías también caerían, sin duda…
Es necesario que las herramientas de IA en materia de investigación sean utilizadas, bajo el principio de dos aspectos fundamentales como son: 1. La Ética y 2. El pensamiento crítico, pero jamás desechar estás herramientas como soporte para nuestras investigaciones.
Excelente artículo, pero en verdad.e genera curiosidad el prompt que utilizó para analizar estás tesis.
Considero que la IA puede contribuir para autorrgular a los investigadores en la detección de plagio.
Es evidente que, «por ahora» los modelos de LLM no generen ideas nuevas, sin embargo con la vertiginosa actualización de las inteligencias artificiales se prevee que muy pronto podrán elaborar ideas complejas muy originales. Al respecto el libro de filosofía que escribió Chatgpt por solicitud de un catedrático italiano, ha dejado perplejos a muchos científicos.
Ya te digo yo que el prompt no era neutral.
Espero que la mía pase el filtro, jejeje
(¿o ha sido una de las analizadas?)
Por otro lado, el físico francés ´Étienne Klein sostiene que un LLM no podría crear una ley física tan básica como el principio de inercia, porque ese principio no se observa en el mundo real. Nadie ve un objeto que no se frene (aunque sea cuesta abajo). No sabemos cómo se le ocurrió a Galileo, no sabemos cómo surgen las ideas, y no parece que sea simplemente por la combinación de enunciados ya expresados, que es lo que hacen los LLMs.
En las tesis que comentas, lo único que podría tener interés son las ideas originales, que son las que se le escapan a los LLMs. Desde luego, el día que un programa informático genere pensamiento original, entonces sí, apaga y vámonos. El relato https://ai-2027.com/ se toma en serio esa posibilidad.
Hoy el argumento está mucho mejor elaborado, pero t´u ya sabías desde el principio que esas tesis no valían el papel en que habían sido impresas 😉 El problema es que los LLM no pueden generar ideas originales porque no tienen ideas. Son perfectos para reproducir lo que han masticado, a un nivel que ningún humano puede alcanzar, pero dudo que si un humano no practica la recogida de información (tanto de la realidad como textos escritos), su procesamiento y la comunicación del análisis, pueda conseguir esa capacidad intelectual de la que hablas. El deportista debe entrenar mil veces los movimientos que hará en el campo para que su cerebro los convierta en naturales, el músico debe entrenar mil veces los movimientos que hará con el instrumento por el mismo motivo, ¿por qué el que trabaja con ideas no tendría que hacer lo mismo si trabaja con el mismo órgano que los otros?